Clock IA > Minha IA quebrou tudo: de quem é a culpa (e a conta)?
Minha IA quebrou tudo: de quem é a culpa (e a conta)?

Agentes de IA: de quem é a culpa (e a conta) em caso de erro?

As inteligências artificiais "agentes", capazes de agir em nosso lugar, estão se multiplicando. Mas quando uma delas comete um erro, a questão da responsabilidade se torna um verdadeiro quebra-cabeça.

Você pediu ao seu assistente virtual para encomendar seu prato favorito e ele entrega um chucrute recheado em vez do seu adorado sushi? Ou, mais seriamente, a IA da sua empresa aprovou uma despesa incorreta, custando caro à companhia? Bem-vindo ao mundo fascinante e um tanto angustiante dos agentes de IA, esses softwares que prometem revolucionar nosso dia a dia tomando iniciativas. Mas quando essas maravilhas da tecnologia saem dos trilhos, uma pergunta simples se torna um verdadeiro enigma: quem é o responsável?

24/05/2025 00:13 Jérôme

Agentes de IA: o que é essa nova novidade?

Esqueça o simples chatbot que responde educadamente às suas perguntas. Os agentes de IA são como se você desse ao seu computador uma missão complexa e ele se virasse (quase) sozinho para cumpri-la. Esses programas são projetados para agir de forma amplamente autônoma, capazes de tomar decisões e executar tarefas que vão desde responder a perguntas de clientes até pagar contas. A Microsoft e outros gigantes da tecnologia imaginam que eles até assumirão funções muito mais complexas, com supervisão humana mínima.

O entusiasmo é palpável: a consultoria Gartner estima que os agentes de IA resolverão 80% das solicitações comuns de atendimento ao cliente até 2029. No Fiverr, uma plataforma onde empresas podem contratar programadores freelancers, as buscas pelo termo "agente de IA" literalmente explodiram, com um aumento de 18.347% nos últimos meses. Dá vertigem, não?

Capgemini, SAP e Mistral AI: a nova aliança para uma IA generativa sob alta supervisão

Várias IAs valem mais que uma? Não é tão simples...

A ambição máxima do setor é criar sistemas "multiagentes". Imagine uma equipe de IAs especializadas que colaboram para substituir equipes humanas inteiras. O ganho de tempo e dinheiro para as empresas parece óbvio. Mas é aí que as coisas complicam, como experimentou Jay Prakash Thakur, um engenheiro de software que dedica seu tempo livre a prototipar esses sistemas. Usando o AutoGen, um software de código aberto da Microsoft para construir agentes (a Amazon lançou uma ferramenta similar chamada Strands, e o Google oferece seu "Agent Development Kit"), ele identificou um grande problema.

Segundo Thakur, quando agentes de diferentes empresas interagem dentro de um mesmo sistema grande, identificar quem é responsável em caso de erro de comunicação pode virar um verdadeiro quebra-cabeça. Ele compara a dificuldade de revisar os registros de erros de vários agentes à de reconstruir uma conversa a partir de notas fragmentadas de várias pessoas. "Muitas vezes é impossível determinar com certeza a responsabilidade", explica.

IA no restaurante: "Eu queria batatas fritas, não urtigas!"

Para ilustrar suas preocupações, Thakur fez experimentos reveladores. Um deles envolvia um sistema de pedidos para um restaurante futurista capaz de aceitar pedidos personalizados. Um usuário digita "hambúrgueres e batatas fritas", um agente de IA busca um preço adequado, traduz o pedido em receita e o passa para uma equipe de robôs com habilidades culinárias variadas. Embora Thakur não tenha uma cozinha comercial nem robôs, sua simulação identificou armadilhas.

Nove em dez vezes, tudo corria bem. Mas houve falhas: um pedido de "onion rings" (anéis de cebola) virou "cebolas extras". Pedidos como "pão naan extra" foram ignorados. Os erros tendiam a aparecer quando Thakur tentava fazer pedidos com mais de cinco itens. O pior cenário, na vida real, seria servir mal alguém com alergia alimentar. Em outro protótipo, um agente de comparação de compras achou uma boa oferta em um site de e-commerce, mas vinculou incorretamente a uma página de produto em outro site, que mostrava um preço mais alto. Imagine a surpresa se o agente estivesse programado para comprar automaticamente!

O grande vazio jurídico: quem paga a conta?

Então, quando a IA comete um erro com consequências financeiras, quem paga? Esse é o cerne da questão. Joseph Fireman, conselheiro jurídico da OpenAI, disse em uma conferência recente que as partes prejudicadas tendem a processar quem tem "os bolsos mais fundos". Ou seja, empresas como a dele terão que se preparar para assumir certa responsabilidade, mesmo que um usuário criativo demais tenha causado o problema. "Não acho que alguém espere culpar o consumidor sentado no porão da mãe em frente ao computador", acrescentou. Para lidar com isso, o setor de seguros já começa a oferecer coberturas para problemas com chatbots de IA.

Lembra-se do cupom de desconto criado sem querer pelo chatbot de IA de uma companhia aérea no ano passado? Foi considerado juridicamente válido. Erros que podem sair caro, como quando Naveen Chatlapalli, um desenvolvedor que ajuda empresas com agentes, viu um agente de RH aprovar pedidos de folga que deveria ter recusado, ou um agente de anotações enviar dados sensíveis de reuniões para o departamento errado.

ZeroSearch: a IA da Alibaba que aprende a buscar sem o Google, e se isso fosse uma revolução?

Um "agente juiz" para apitar o fim da brincadeira?

Diante desse caos digital em potencial, desenvolvedores esperam que um "agente juiz" possa supervisionar esses sistemas, identificando e corrigindo erros antes que piorem. Esse superagente seria o gerente que entenderia que o cliente queria anéis de cebola, não uma overdose de cebolas cruas. Mas Mark Kashef, freelancer que dirige uma consultoria de estratégia em IA chamada Prompt Advisers, teme que empresas comecem a sobrecarregar os primeiros sistemas com agentes desnecessários, criando uma burocracia digital.

Especialistas jurídicos sugerem que usuários de sistemas de agentes assinem contratos transferindo responsabilidade para as empresas de tecnologia. Mas sejamos realistas: o consumidor comum terá dificuldade para impor condições a gigantes da tecnologia. Como destacou Rebecca Jacobs, da Anthropic, na mesma conferência, "questões interessantes surgirão sobre a capacidade dos agentes de contornar políticas de privacidade e termos de serviço" em nome dos usuários.

Você sabia?

A frenesi em torno dos agentes de IA é tal que, segundo dados do Fiverr, as buscas por "agente de IA" subiram 18.347% nos últimos meses. Uma verdadeira corrida do ouro digital!

IAs excessivamente educadas? O novo benchmark que mede sua tendência à bajulação.

Sem pânico, mas com os olhos abertos

Os agentes de IA prometem uma automação de sonho, capazes de se tornar nossos assistentes pessoais definitivos. Mas como diz Dazza Greenwood, advogado especializado em riscos jurídicos de agentes: "Se você tem 10% de erro com 'adicione cebolas', para mim, não está pronto para lançar. Primeiro refine seus sistemas para não prejudicar as pessoas."

Antes de lhes entregar as chaves de casa ou, mais crucial, nossos dados e decisões financeiras, parece vital definir bem as regras. Porque, por ora, está claro que ainda não podemos relaxar e deixar tudo nas mãos (virtuais) dos agentes.

Enquanto isso não está perfeitamente ajustado, se sua IA sugerir uma receita da vovó com parafusos e circuitos impressos, um conselho: não pegue o avental ainda!

Jerome

Especialista em desenvolvimento web, SEO e inteligência artificial, a minha experiência prática na criação de sistemas automatizados remonta a 2009. Hoje em dia, além de redigir artigos para decifrar a atualidade e os desafios da IA, desenho soluções à medida e intervenho como consultor e formador para uma IA ética, eficiente e responsável.

Facebook - X (Twitter) - Linkedin
Clock IA > Minha IA quebrou tudo: de quem é a culpa (e a conta)?