Pesquisa realizada pelo BBC descobriu que quatro principais chatbots de inteligência artificial (AI) – ChatGPT da Openai, copilot da Microsoft, Gemini do Google e Perplexity AI – estão resumindo imprecisos. O estudo envolveu esses chatbots resumindo 100 notícias provenientes do site da BBC.
BBC Exclusive: AI Chatbots Distort News Summeros
A BBC relatou que as respostas produzidas pelos chatbots da IA continham “imprecisões significativas” e distorções. Deborah Turness, CEO da BBC News and Current Affairs, observada em um Postagem do blog Que, embora a IA ofereça “oportunidades infinitas”, os desenvolvedores estão “brincando com fogo”, levantando preocupações de que as manchetes distorcidas da IA podem causar danos no mundo real.
Ao longo do estudo, que envolveu classificações de jornalistas que eram especialistas nos respectivos assuntos dos artigos, verificou -se que 51% das respostas da IA apresentaram problemas substanciais. Entre as respostas geradas pela IA que referenciaram o conteúdo da BBC, 19% continham erros factuais, incluindo declarações, números e datas incorretos. Além disso, 13% das cotações atribuídas aos artigos da BBC foram alteradas ou deturpadas.
Algumas imprecisões específicas identificadas no estudo incluíram Gêmeos afirmando que o Serviço Nacional de Saúde (NHS) do Reino Unido não recomendou o Vaping para parar de fumar, quando na verdade o faz. Chatgpt e Copilot alegaram incorretamente que os ex -líderes Rishi Sunak e Nicola Sturgeon ainda estavam no cargo, apesar de suas partidas. A perplexidade citou incorretamente as notícias da BBC, sugerindo que o Irã agiu com “restrição” em relação às ações de Israel.
O estudo destacou que o copiloto da Microsoft e o Gemini do Google exibiram problemas mais significativos em comparação com o ChatGPT e Perplexidade ai. A BBC aumentou temporariamente as restrições ao acesso de conteúdo a esses sistemas de IA durante a fase de teste em dezembro de 2024.
Openai derruba o cluster iraniano usando o chatgpt para criar notícias falsas
O diretor de programas da BBC para a IA generativa, Pete Archer, enfatizou que os editores deveriam controlar como seu conteúdo é usado e que as empresas de IA precisam divulgar como seus assistentes processam notícias, incluindo taxas de erro. O Openai respondeu que colaboram com os parceiros para melhorar a precisão das citações em linha e respeitar as preferências dos editores.
Após o estudo, a Turness pediu às empresas de tecnologia que abordassem os problemas identificados, semelhante à forma como a Apple respondeu às queixas anteriores da BBC sobre os resumos de notícias movidos a IA. Ela provocou um esforço colaborativo entre o setor de tecnologia, organizações de notícias e o governo a remediar as imprecisões que podem corroer a confiança do público nas informações.
O estudo observou ainda a tendência da perplexidade da IA de alterar as declarações de fontes e revelou que a copiloto se baseava em artigos desatualizados para seus resumos de notícias. No geral, a BBC visa se envolver em uma conversa mais ampla em torno do ambiente regulatório da IA para garantir uma disseminação precisa das notícias.
Em resposta às descobertas, a Turness colocou uma pergunta crítica sobre o design das tecnologias de IA para promover a precisão no consumo de notícias. Ela afirmou que o potencial de distorção, semelhante à desinformação, ameaça a confiança do público em todas as mídias informativas.
Crédito da imagem em destaque: Kerem Gülen/ideograma