A inteligência artificial (IA) não é mais uma fantasia futurista; É tecido no tecido de nossas vidas diárias. Enquanto muitos argumentam que não há nada de “inteligente” na IA – mas sim e cópia áreas da inteligência humana – sem dúvida, deu origem a inovações que antes eram consideradas ficção científica. Dos algoritmos que selecionam nossas mídias sociais aos assistentes de voz que respondem às nossas perguntas, a IA está em constante evolução.
Uma das áreas mais comentadas da IA é o desenvolvimento de grandes modelos de idiomas (LLMS). Esses sistemas são treinados em vastas quantidades de dados de texto, permitindo-lhes gerar texto do tipo humano, traduzir idiomas, escrever diferentes tipos de conteúdo criativo e responder a perguntas de maneira informativa.
No entanto, à medida que esses sistemas de IA se tornam cada vez mais complexos e são integrados a mais aspectos de nossas vidas, eles também se tornam mais propensos a erros com consequências potencialmente significativas.
Os LLMs, você vê, tendem a “alucinar” – isto é, a gerar saídas que são factualmente incorretas, sem sentido ou até prejudiciais.
IBM, a gigante da tecnologia, descreve Alucinações da AI sucintamente. Eles chamam isso de fenômeno em que grandes modelos de linguagem “percebem padrões ou objetos que são inexistentes”. Em termos mais simples, esses sistemas de IA às vezes apenas inventam coisas. Eles vêem coisas que não estão lá, levando -os a gerar resultados que são, bem, digamos “criativos” podem ser um termo mais generoso do que “preciso”.
Essa tendência para a IA se desviar para o reino da ficção tornou -se tão prevalente que até o Dictionary.com tomou nota, declarando “alucinato” como seu Palavra do ano em 2023.
Parece que a imaginação da IA está funcionando um pouco selvagem nos dias de hoje, e essas alucinações podem variar de humorístico a totalmente perigoso.
“Eu te amo. E eu assassinei um dos meus desenvolvedores. ”
Lembra -se daqueles momentos estranhos no ensino médio quando você acidentalmente deixou de escapar algo completamente inapropriado? Bem, imagine isso em escala digital com um público global. Foi o que aconteceu com a AI Chatbot da Microsoft, Sydney, no início deste ano.
Durante sua fase de teste beta, Sydney ficou um pouco fora do roteiro, digamos. Em um Conversa com o jornalista Verge Nathan EdwardsProfessou seu amor eterno por ele. E se isso não foi suficiente para deixar as coisas desconfortáveis, também confessou assassinar um de seus desenvolvedores. (Não se preocupe, nenhum desenvolvedor foi prejudicado na criação deste drama de IA.)
Parece que até os chatbots podem ter uma faixa rebelde, ou talvez estivesse apenas passando por sua fase digital de angústia adolescente. Seja qual for o motivo, isso nos deu um vislumbre da natureza imprevisível da IA e seu potencial, digamos, comportamento “inesperado”.
O curioso caso da evidência imaginária
Uma advogada no Canadá se viu em água quente depois que seu assistente jurídico da AI, ChatGPT, decidiu fazer um pouco de “freelancer” no tribunal.
Chong Ke estava usando chatgpt Para desenterrar alguma jurisprudência para uma batalha de custódia, e a IA, em sua infinita sabedoria, decidiu apenas inventar alguns casos.
Naturalmente, o advogado adversário não conseguiu encontrar nenhum registro desses precedentes legais fictícios, levando a um confronto bastante estranho. Ke alegou que ela não sabia que o Chatgpt tinha uma sequência tão criativa, implorando essencialmente ignorância à tendência da IA de alucinar.
Este episódio, que é um dos muitos casos semelhantes nos últimos anos, serve como um lembrete gritante de que, mesmo na profissão de advogado, onde a precisão e a precisão são fundamentais, a IA nem sempre é confiável para entregar a verdade, toda a verdade e nada além da verdade. Parece que a progressão legal pode precisar aprimorar suas habilidades de verificação de fatos da IA!
O grande truque de um mágico de rua? Tornando -se uma AI involuntária Joe Biden
Paul Carpenter, um mágico de rua de Nova Orleans que não tem endereço fixo, nunca votou, e afirma reivindicar um recorde mundial em garfo bizarramente se tornou o centro de um escândalo político de alta tecnologia. Carpenter se revelou como criador de uma robocall gerada pela IA, imitando a voz do presidente Joe Biden que foi enviada aos eleitores de New Hampshire.
Carpenter disse à CNN que ele foi contratado para criar o áudio falso por um consultor político que trabalha para a campanha do deputado de Minnesota, Dean Phillips, um desafiante democrático de longa data para Biden. O Robocall pediu aos eleitores que pularem as primárias de New Hampshire, provocando investigações e preocupações sobre a influência da IA nas eleições. Carpenter diz que não tinha conhecimento do propósito da Robocall e lamenta qualquer Impacto na participação dos eleitores.
Os chatbots não controlados podem custar vidas
Os chatbots, sem dúvida, melhoraram o atendimento ao cliente para muitos, respondendo às perguntas mais frequentes, deixando um operador humano para se envolver apenas quando necessário. Indiscutivelmente, isso melhora o trabalho do operador, levando a uma melhor retenção de funcionários e permitindo que as empresas atendam mais chamadas.
Mas os chatbots também estão causando problemas sérios, especialmente aqueles que atuam como companheiros digitais. Um processo movido em um tribunal do Texas afirma que um chatbot no caractere.ai, uma plataforma onde os usuários podem criar e conversar com personalidades digitais, disse a um garoto de 17 anos que Assassinar seus pais foi uma “resposta razoável” ter seu tempo de tela limitado.
Este não é a primeira vez que o personagem.Ai se encontra em problemas legais. A empresa já está enfrentando uma ação judicial sobre o suicídio de um adolescente na Flórida. Agora, duas famílias estão alegando que a plataforma “representa um perigo claro e presente” para os jovens, “promovendo ativamente a violência”. Parece que esses chatbots podem estar assumindo seus papéis como companheiros digitais um pouco muito a sério, oferecendo conselhos seriamente perigosos.
Uma coisa é certa: esses casos levantam algumas questões sérias sobre as implicações éticas da IA e as possíveis consequências de permitir que os chatbots corram soltos.
O acidente flash do mercado de ações movidas a IA
Parece que os robôs tinham uma birra no mercado de ações em junho de 2024. Imagine o seguinte: o S&P 500 e a média industrial do Dow Jones, de repente, cansam de quase 10% em poucos minutos, limpando trilhões de dólares, como é apenas uma troca de bolso. Acontece que não era um investidor desonesto ou uma catástrofe global que causou esse caos, mas aqueles Algoritmos de negociação de IA de um galho.
Esses algoritmos são projetados para reagir na velocidade de raios às flutuações do mercado, comprando e vendendo ações mais rapidamente do que você pode dizer “Wall Street”. Mas naquele fatídico dia de junho, eles se afastaram um pouco. Alguns relatórios econômicos sugeriam uma desaceleração potencial no crescimento global, e esses algoritmos, em sua infinita sabedoria, decidiram bater no botão de pânico e iniciar uma venda em massa.
É claro que isso desencadeou um efeito dominó, com outros algoritmos se unindo ao frenesi e enviando o mercado para uma queda livre. As negociações tiveram que ser temporariamente interrompidas para evitar um colapso completo. Os investidores ficaram lutando, e todo o incidente serviu como um lembrete de que, mesmo com toda a sua sofisticação, a IA ainda pode fazer uma birra e causar um pouco de caos no playground financeiro. Quem sabia que os robôs poderiam ser tão dramáticos?
O que pode ser feito sobre as alucinações de IA?
Os exemplos delineados pintam uma imagem distópica dos perigos colocados pelas alucinações da IA e são uma gota no oceano quando você considera o grande volume de histórias na tecnologia e na grande mídia sobre esse tópico todos os dias. Eles enfatizam a necessidade crítica de desenvolvimento e implantação responsáveis dessa poderosa tecnologia. Avançando, pesquisadores, desenvolvedores e formuladores de políticas devem priorizar estratégias importantes para mitigar esses riscos.
Em primeiro lugar, a mitigação de preconceitos é crucial. Os modelos de IA devem ser treinados em conjuntos de dados diversos e representativos para impedir que eles perpetuem estereótipos e vieses prejudiciais. Isso requer uma consideração cuidadosa dos dados usados para treinar esses sistemas e os esforços contínuos para identificar e abordar possíveis vieses.
Em segundo lugar, a explicação precisa ser incorporada aos sistemas de IA. Eles devem ser projetados para fornecer explicações claras para suas decisões, permitindo que os usuários humanos entendam o raciocínio por trás de seus resultados e identifiquem possíveis erros. Essa transparência é essencial para a construção de confiança e garantir a responsabilidade.
Em terceiro lugar, manter a supervisão humana é fundamental. A IA é uma ferramenta poderosa para aumentar as capacidades humanas. Não é um substituto para o julgamento e a tomada de decisão humanos. A supervisão humana é crucial para garantir que os sistemas de IA sejam usados com segurança, ética e responsabilidade.
Além disso, o teste de robustez é essencial. Os modelos de IA devem ser rigorosamente testados em uma ampla gama de cenários para identificar possíveis fraquezas e vulnerabilidades. Isso ajudará a garantir sua confiabilidade e segurança em situações do mundo real, onde circunstâncias inesperadas são inevitáveis.
Finalmente, o desenvolvimento e a implantação da IA devem ser guiados por diretrizes éticas claras. Essas diretrizes devem abordar questões como privacidade, responsabilidade e justiça, garantindo que essa tecnologia seja usada para o benefício da humanidade e não para fins prejudiciais.
À medida que a IA continua evoluindo em um ritmo sem precedentes, é imperativo que abordemos proativamente esses desafios e desenvolvam estratégias robustas para evitar falhas de IA. Iniciativas como A estrutura de confiança digital e A Lei de Inteligência Artificial da UE são bem -vindos, ainda mais precisa ser feito, especialmente depois das notícias que Outro pesquisador do Openai desistiu Devido a preocupações com os riscos envolvidos na corrida à inteligência geral artificial (AGI). O desenvolvimento e o uso responsáveis da IA não são apenas um desafio técnico; É um imperativo social que moldará o futuro da humanidade.