Muito antes da introdução do ChatGPT, os governos estavam interessados em utilizar chatbots para automatizar os seus serviços e consultas.
Estes primeiros chatbots “tendem a ser mais simples e a ter capacidades de conversação limitadas”, afirma Colin van Noordt, um investigador baseado nos Países Baixos que estuda a utilização da IA no governo.
Mas o surgimento da inteligência artificial generativa nos últimos dois anos revigorou a visão de um serviço público mais eficiente, no qual conselheiros semelhantes a humanos podem trabalhar 24 horas por dia e responder a perguntas sobre benefícios, impostos e outras áreas onde o governo interage com o público. .
A IA generativa é sofisticada o suficiente para fornecer respostas semelhantes às humanas e, se treinada com dados suficientes de alta qualidade, poderia, teoricamente, responder a todos os tipos de perguntas sobre os serviços governamentais.
Sabe-se agora que a IA generativa comete erros ou até dá respostas absurdas – as chamadas alucinações.
No Reino Unido, o Serviço Digital Governamental (GDS) tem testado um chatbot baseado em ChatGPT chamado GOV.UK Chat, concebido para responder às perguntas dos cidadãos sobre uma série de tópicos relacionados com serviços governamentais.
Em uma postagem no blog sobre suas descobertas iniciaisA agência descobriu que quase 70% dos envolvidos no estudo consideraram as respostas úteis.
No entanto, houve problemas com “alguns” casos em que o sistema gerou informações incorretas e as transmitiu como fatos.
O blog também expressou preocupação com a possibilidade de haver confiança equivocada em um sistema que às vezes pode errar.
“No geral, as respostas não alcançaram o mais alto nível de precisão exigido para um site como o GOV.UK, onde a precisão factual é crucial. Estamos repetindo rapidamente esse experimento para resolver os problemas de precisão e confiabilidade.”
Outros países também estão a experimentar sistemas baseados em IA generativa.
Portugal lançou em 2023 o “Guia Prático da Justiça”, um chatbot concebido para responder a questões básicas sobre temas simples como casamento e divórcio. O chatbot foi desenvolvido com financiamento do Mecanismo de Recuperação e Resiliência (RRF) da União Europeia.
O projeto de € 1,3 milhão (US$ 1,4 milhão; £ 1,1 milhão) é baseado no modelo de linguagem GPT 4.0 da OpenAI. Não cobre apenas casamento e divórcio, mas também fornece informações sobre como iniciar um negócio.
Segundo o Ministério da Justiça português, foram feitas 28.608 perguntas sobre o guia nos primeiros 14 meses do projeto.
Quando lhe fiz a pergunta básica: “Como posso começar um negócio?”, ele respondeu bem.
Porém, quando fiz uma pergunta mais difícil: “Posso abrir um negócio se tiver menos de 18 anos, mas for casado?”, pediram desculpas por não terem as informações necessárias para responder a essa pergunta.
Os círculos ministeriais admitem que ainda existe falta de confiança, mesmo que as respostas erradas sejam raras.
“Esperamos que estas limitações sejam superadas por um aumento significativo na fiabilidade das respostas”, diz-me a fonte.
Tais deficiências fazem com que muitos especialistas – incluindo Colin van Noordt – tenham cautela. “É um erro se os chatbots forem usados para substituir humanos e reduzir custos.”
Faz mais sentido vê-lo como “um serviço adicional, uma forma rápida de encontrar informações”, acrescenta.
Sven Nyholm, professor de Ética em Inteligência Artificial na Universidade Ludwig Maximilian de Munique, aponta o problema da responsabilidade.
“Um chatbot não é intercambiável com um funcionário”, diz ele. “Uma pessoa pode ser responsabilizada e moralmente responsável por suas ações.”
“Os chatbots de IA não podem ser responsabilizados pelo que fazem. A administração pública exige responsabilização e, portanto, pessoas.”
O senhor deputado Nyholm também sublinha a questão da fiabilidade.
“Os novos tipos de chatbots criam a ilusão de serem inteligentes e criativos, o que não acontecia com os tipos mais antigos de chatbots.
“De vez em quando, essas novas e mais impressionantes formas de chatbots cometem erros bobos e estúpidos – o que às vezes pode ser engraçado, mas também pode ser potencialmente perigoso se as pessoas confiarem em suas recomendações.”
Se o ChatGPT e outros Large Language Models (LLMs) não estiverem dispostos a fornecer conselhos importantes, talvez pudéssemos olhar para a Estónia como uma alternativa.
A Estónia é pioneira na digitalização dos serviços públicos. O país tem vindo a construir serviços digitais desde o início da década de 1990 e introduziu um cartão de identificação digital em 2002 que permite aos cidadãos aceder aos serviços governamentais.
Portanto, não é surpresa que a Estónia esteja na vanguarda da adoção de chatbots.
O país está atualmente desenvolvendo uma série de chatbots para serviços governamentais sob o nome Bürokratt.
No entanto, os chatbots da Estónia não são baseados em Large Language Models (LLM), como ChatGPT ou Google Gemini.
Em vez disso, eles usam Processamento de Linguagem Natural (PNL), uma tecnologia que precedeu a recente onda de IA.
Os algoritmos de PNL da Estônia dividem uma consulta em pequenos segmentos, identificam palavras-chave e inferem o que o usuário deseja.
Na Bürokratt, os departamentos usam seus dados para treinar chatbots e verificar suas respostas.
“Se Bürokratt não souber a resposta, o chat é encaminhado para um agente de suporte ao cliente que assume o controle do chat e responde manualmente”, diz Kai Kallas, chefe do departamento de serviços pessoais da Autoridade de Sistemas de Informação da Estônia.
O potencial deste sistema é mais limitado do que o de um sistema baseado em ChatGPT devido à capacidade limitada dos modelos de PNL de imitar a fala humana e reconhecer nuances na linguagem.
No entanto, é improvável que dêem respostas incorretas ou enganosas.
“Alguns dos primeiros chatbots forçaram os cidadãos a selecionar opções para perguntas. Ao mesmo tempo, isso permitiu maior controle e transparência sobre como o chatbot funcionava e respondia”, explica Colin van Noordt.
“Os chatbots baseados em LLM geralmente têm uma qualidade de conversação muito mais alta e podem fornecer respostas mais diferenciadas.
“No entanto, isso acarreta menos controle sobre o sistema e também pode levar a respostas diferentes para a mesma pergunta”, acrescenta.
“Leitor. Praticante de álcool. Defensor do Twitter premiado. Pioneiro certificado do bacon. Aspirante a aficionado da TV. Ninja zumbi.”