Como utilizar a IA no trabalho de modo a evitar alucinações e erros
 
                        Juízes em todo o mundo enfrentam um problema crescente: documentos processuais gerados com recurso à inteligência artificial (IA) e entregues com erros, como citações de casos que não existem, segundo advogados e documentos judiciais.
A tendência serve de aviso para quem está a aprender a usar ferramentas de IA no trabalho. Muitos empregadores querem contratar trabalhadores que saibam utilizar a tecnologia para tarefas de investigação e para redigir relatórios. À medida que professores, contabilistas e profissionais de marketing começam a recorrer a chatbots e assistentes de IA para dar novas ideias e aumentar a produtividade, também começam a descobrir que os programas cometem erros.
Um cientista de dados e advogado francês, Damien Charlotin, catalogou pelo menos 490 processos judiciais apresentados em tribunal nos últimos seis meses que continham “alucinações”, ou seja, respostas dadas por ferramentas de IA com informações falsas ou enganadoras. O ritmo está a acelerar à medida que mais pessoas usam a IA, explicou.
“Mesmo os utilizadores mais sofisticados podem ter problemas com isto”, disse Charlotin. “A IA pode ser uma bênção. É maravilhosa, mas também tem essas armadilhas."
Charlotin, investigador sénior na HEC Paris, uma escola de negócios localizada nos arredores da capital francesa, criou uma base de dados para acompanhar casos em que um juiz concluiu que uma ferramenta de IA generativa produziu conteúdo “com alucinações”, como jurisprudência inventada e citações falsas.
A maioria das decisões vem de casos nos EUA em que os autores se representaram a si próprios, sem advogado, indicou. Embora a maioria dos juízes tenha emitido advertências sobre os erros, alguns aplicaram multas.
Mas até empresas de grande notoriedade apresentaram documentos jurídicos problemáticos. Um juiz federal no Colorado determinou que um advogado da MyPillow Inc. apresentou uma peça com quase 30 citações com falhas, no âmbito de um processo por difamação contra a empresa e o seu fundador, Michael Lindell.
A profissão jurídica não é a única a lidar com as falhas da IA. As descrições gerais de IA que surgem no topo das páginas de resultados das pesquisas online contêm frequentemente erros.
As ferramentas de IA também levantam preocupações de privacidade. Trabalhadores de todos os setores devem ter cautela com os detalhes que enviam ou inserem nos pedidos, para garantirem a proteção de informação confidencial de empregadores e clientes.
Especialistas jurídicos e em matérias relacionadas com o mundo laboral partilham as suas experiências com erros da IA e descrevem os perigos a evitar.
Pense na IA como um assistente
Não confie na IA para tomar grandes decisões por si. Alguns utilizadores encaram a ferramenta como um estagiário a quem se atribuem tarefas e cujo trabalho concluído se espera verificar.
“Encare a IA como um complemento ao seu fluxo de trabalho”, afirmou Maria Flynn, CEO da Jobs for the Future, uma organização sem fins lucrativos dedicada ao desenvolvimento da força laboral. Pode funcionar como um assistente em tarefas como redigir um e-mail ou pesquisar um itinerário de viagem, mas não a encare como um substituto que faz todo o trabalho, afirmou ainda.
Ao preparar uma reunião, Flynn testou uma ferramenta interna de IA, pedindo-lhe que sugerisse questões de discussão com base num artigo que partilhou com a equipa.
“Algumas das questões propostas não se enquadravam bem no contexto da nossa organização, por isso consegui dar-lhe esse feedback... e voltou com cinco perguntas muito ponderadas”, notou.
Verifique a exatidão
Flynn também encontrou problemas nos resultados da ferramenta de IA, que ainda está em fase piloto. Uma vez, pediu-lhe para compilar informação sobre o trabalho que a sua organização tinha feito em vários estados. Mas a ferramenta estava a encarar o trabalho concluído e propostas de financiamento como se fossem a mesma coisa.
“Nesse caso, a nossa ferramenta de IA não foi capaz de identificar a diferença entre algo que tinha sido proposto e algo que tinha sido concluído”, disse Flynn.
Felizmente, tinha conhecimento institucional suficiente para reconhecer os erros. “Se você for novo numa organização, pergunte aos colegas se os resultados lhes parecem corretos”, sugeriu Flynn.
Embora a IA ajude a fazer brainstorming, confiar nela para fornecer informação factual é arriscado. Reserve algum tempo para verificar a exatidão do conteúdo que a IA lhe fornece, mesmo que seja tentador saltar esse passo.
“As pessoas presumem que é correto porque soa tão plausível e é conveniente”, constatou Justin Daniels, advogado em Atlanta e sócio da sociedade de advogados Baker Donelson. “Ter de voltar atrás e conferir todas as citações, ou, quando olho para um contrato que a IA resumiu, ter de voltar a ler o que o contrato diz, é um pouco inconveniente e moroso, mas é isso que tem de ser feito. Por muito que se pense que a IA pode substituir esse trabalho, não pode.”
Cuidado com as ferramentas de anotação
É tentador utilizar a IA para gravar e tirar notas durante reuniões. Algumas ferramentas originam resumos úteis e delineiam etapas de ação com base no que foi dito.
Mas muitas jurisdições exigem o consentimento dos participantes antes de gravar conversas. Antes de usar a IA para tirar notas, pare e pondere se a conversa deve ser mantida confidencial, aconselhou Danielle Kays, sócia em Chicago da sociedade de advogados Fisher Phillips.
Consulte colegas das áreas jurídica ou de recursos humanos antes de usar um anotador em situações de alto risco, como investigações, avaliações de desempenho ou discussões de estratégia jurídica, sugeriu.
“Há quem defenda que, com o uso da IA, deveriam existir vários níveis de consentimento, e isso está a ser apreciado pelos tribunais”, disse Kays. “É uma questão que, diria, as empresas devem continuar a acompanhar à medida que o tema avança nos tribunais.”
Proteger informação confidencial
Se estiver a usar ferramentas de IA gratuitas para redigir uma nota interna ou uma campanha de marketing, não revele informação identificável ou segredos da empresa. Depois de carregar essa informação, é possível que outros utilizadores da mesma ferramenta venham a encontrá-la.
Isto porque, quando outras pessoas colocam perguntas a uma ferramenta de IA, esta procura a informação disponível, incluindo os detalhes que revelou posteriormente,ao construir a resposta, explicou Flynn. “Não distingue se algo é público ou privado”, acrescentou.
Procure formação
Se o seu empregador não oferecer formação em IA, experimente ferramentas gratuitas como o ChatGPT ou o Microsoft Copilot. Algumas universidades e empresas tecnológicas oferecem cursos que ajudam a compreender como funciona a IA e de que formas pode ser útil.
São valiosos os cursos que ensinam a delinear boas instruções para as ferramentas de IA ou formações práticas que permitem treinar, destacou Flynn.
Apesar dos eventuais problemas das ferramentas, aprender como funcionam pode ser benéfico numa altura em que elas estão por todo o lado.
“A maior armadilha potencial, ao aprender a usar a IA, é não aprender a usá-la de todo”, disse Flynn. “Todos vamos precisar de nos tornar fluentes em IA e dar os primeiros passos para construir familiaridade, literacia e à vontade com a ferramenta vai ser crucial”.
Today
