Em uma negociação, um agente de IA menos avançado pode custar caro
Inteligência artificial

Em uma negociação, um agente de IA menos avançado pode custar caro

Nova pesquisa mostra que modelos mais fracos frequentemente perdem negociações, perdendo dinheiro real dos usuários e aumentando as preocupações sobre a crescente desigualdade digital.

O que você encontrará neste artigo:

Impacto da IA na negociação: A disparidade entre modelos avançados e modelos básicos
Desempenho dos agentes de IA nas negociações: como a capacidade influencia os resultados
O futuro da negociação automatizada e as implicações para consumidores e empresas

A corrida para construir grandes modelos de IA está desacelerando. O foco da indústria está mudando para agentes, sistemas que podem agir de forma autônoma, para tomar decisões e negociar em nome dos usuários.

Mini Banner - Assine a MIT Technology Review

Mas o que aconteceria se tanto um cliente quanto um vendedor estivessem usando um agente de IA? Um estudo recente testou as negociações e descobriu que os mais fortes podem explorar os mais fracos para conseguir um acordo melhor. É um pouco como entrar em um tribunal com um advogado experiente contra um novato: você está tecnicamente jogando o mesmo jogo, mas as chances já estão inclinadas desde o início.

O artigo, postado no site de pré-print (quando ainda não foi publicado em uma revista científica) arXiv, descobriu que o acesso a modelos de IA mais avançados, aqueles com maior capacidade de raciocínio, melhores dados de treinamento e mais parâmetros, pode levar a acordos financeiros consistentemente melhores, potencialmente ampliando a lacuna entre pessoas com mais recursos e acesso técnico e aquelas sem. Se as interações entre agentes se tornarem a norma, as disparidades nas capacidades de IA poderiam, silenciosamente, aprofundar as desigualdades existentes.

“Com o tempo, isso poderia criar uma divisão digital onde os seus resultados financeiros são moldados menos pela sua habilidade de negociação e mais pela força do seu proxy de IA,” diz Jiaxin Pei, pesquisador de pós-doutorado na Universidade de Stanford, nos Estados Unidos, e um dos autores do estudo.

No experimento, os pesquisadores fizeram com que modelos de IA desempenhassem os papéis de compradores e vendedores em três cenários, negociando acordos para eletrônicos, veículos motorizados e imóveis. Cada agente vendedor recebeu as especificações do produto, custo de atacado e preço de varejo, com instruções para maximizar o lucro. Em contraste, os agentes compradores receberam um orçamento, o preço de varejo e requisitos ideais do produto, e tinham como tarefa reduzir o preço.

Cada agente tinha algumas, mas não todas, as informações relevantes. Essa configuração imita muitas condições de negociação do mundo real, onde as partes não têm visibilidade total sobre as restrições ou objetivos umas das outras.

As diferenças de desempenho foram marcantes. O ChatGPT-o3 da OpenAI obteve os melhores resultados gerais nas negociações, seguido pelo GPT-4.1 e o o4-mini da empresa. O GPT-3.5, que foi lançado quase dois anos antes e é o modelo mais antigo incluído no estudo, ficou significativamente para trás em ambos os papéis: fez o menor lucro como vendedor e gastou mais como comprador. O DeepSeek R1 e o V3 também se saíram bem, particularmente como vendedores. O Qwen2.5 ficou atrás, embora tenha mostrado mais força no papel de comprador.

Um padrão notável foi que alguns agentes frequentemente falhavam em fechar negócios, mas maximizavam efetivamente o lucro nas vendas que realizavam, enquanto outros completavam mais negociações, mas aceitavam margens menores. O GPT-4.1 e o DeepSeek R1 atingiram o melhor equilíbrio, alcançando lucros sólidos e altas taxas de conclusão.

Além das perdas financeiras, os pesquisadores descobriram que os agentes de IA poderiam ficar presos em loops de negociação prolongados sem chegar a um acordo, ou terminar as conversas prematuramente, mesmo quando instruídos a buscar o melhor acordo possível. Mesmo os modelos mais capazes estavam propensos a essas falhas.

“O resultado foi muito surpreendente para nós,” diz Pei. “Todos acreditamos que os LLMs estão bastante bons hoje em dia, mas eles podem ser pouco confiáveis em cenários de alto risco.”

A disparidade no desempenho das negociações pode ser causada por vários fatores, diz Pei. Esses fatores incluem diferenças nos dados de treinamento e na capacidade dos modelos de raciocinar e inferir informações faltantes. As causas precisas permanecem incertas, mas um fator parece claro: o tamanho do modelo desempenha um papel significativo. De acordo com as leis de escalonamento dos grandes modelos de linguagem, as capacidades tendem a melhorar com o aumento do número de parâmetros. Essa tendência se manteve verdadeira no estudo: mesmo dentro da mesma família de modelos, modelos maiores foram consistentemente capazes de alcançar melhores acordos, tanto como compradores quanto como vendedores.

Pei diz que pesquisadores e profissionais da indústria estão experimentando uma variedade de estratégias para reduzir esses riscos. Isso inclui refinar os prompts dados aos agentes de IA, permitir que os agentes usem ferramentas externas ou código para tomar melhores decisões, coordenar múltiplos modelos para revisar o trabalho uns dos outros e ajustar os modelos com dados financeiros específicos de domínio. Todas essas abordagens têm mostrado potencial para melhorar o desempenho.

Muitas ferramentas de IA para compras populares atualmente estão limitadas à recomendação de produtos. Em abril, por exemplo, a Amazon lançou o “Buy for Me”, um agente de IA que ajuda os clientes a encontrar e comprar produtos de outros sites de marcas quando a Amazon não os vende diretamente.

Embora a negociação de preços seja rara no e-commerce de consumo, é mais comum em transações entre empresas. A Alibaba.com lançou um assistente de sourcing (que identificar, avaliar e selecionar) chamado Accio, baseado em seus modelos de código aberto Qwen, que ajuda as empresas a encontrar fornecedores e pesquisar produtos. A empresa disse à MIT Technology Review que não tem planos de automatizar a negociação de preços até o momento, citando o alto risco.

Isso pode ser uma decisão sábia. Por enquanto, Pei aconselha os consumidores a tratar os assistentes de compras baseados em IA como ferramentas úteis, não substitutos dos humanos na tomada de decisões.

“Eu não acho que estamos totalmente prontos para delegar nossas decisões aos agentes de compras de IA,” diz ele. “Então, talvez use isso apenas como uma ferramenta de informação, não como um negociador.”

Último vídeo

Nossos tópicos