A inteligência artificial geral (AGI), uma forma teórica de IA capaz de imitar a inteligência de nível humano, poderia trazer mudanças radicais ao mundo da tecnologia. Ao contrário da IA restrita de hoje, programada para tarefas específicas, como identificar falhas em produtos ou resumir artigos de notícias, a AGI promete adaptabilidade através de uma ampla gama de desafios baseados no pensamento. No entanto, figuras da indústria como o CEO da Nvidia, Jensen Huang, são compreensivelmente cautelosas quando se trata de prever um cronograma concreto para o seu surgimento.
AGI pode demorar 5 anos
As implicações éticas e sociais da AGI são grandes. Se estes sistemas desenvolverem os seus próprios objectivos desalinhados com os objectivos humanos, as consequências poderão ser graves. O receio é que uma AGI suficientemente avançada possa tornar-se incontrolável, com resultados que desafiam a previsão ou a reversão.
Embora hesitante em se envolver em cenários apocalípticos favorecidos pela mídia, Huang reconhece a complexidade do desenvolvimento de AGI. Um obstáculo importante é estabelecer critérios objetivos para definir o que constitui uma verdadeira AGI. É puramente baseado no desempenho? A AGI poderia ser medida pela sua capacidade de raciocinar, planejar ou aprender de forma independente?

Huang aproveitou a oportunidade para partilhar as suas perspectivas com a mídia sobre este assunto. Ele postula que a previsão da chegada de uma AGI viável depende da própria definição da AGI. Ele faz uma comparação, observando que, apesar da complexidade introduzida pelos fusos horários, há clareza sobre quando será o dia de Ano Novo e quando começará o ano de 2025.
“Se especificássemos que AGI era algo muito específico, um conjunto de testes onde um programa de software pode ter um desempenho muito bom – ou talvez 8% melhor do que a maioria das pessoas – Acredito que chegaremos lá dentro de 5 anos”, observa Huang. Ele propõe marcos hipotéticos da AGI, como superar especialistas em exames jurídicos, econômicos ou médicos. No entanto, até que o próprio conceito de AGI seja definido de forma mais concreta, previsões precisas continuam a ser difíceis.
A questão das alucinações
Outra grande preocupação levantada envolve a questão da IA “alucinações”- aquelas declarações aparentemente plausíveis, mas em última análise falsas, geradas por alguns modelos de IA. Huang, no entanto, expressa confiança de que esta questão pode ser resolvida enfatizando práticas de verificação rigorosas.
Huang enfatiza a necessidade de adicionar uma dimensão de pesquisa à criação de respostas geradas por IA, destacando isso como “geração aumentada por recuperação”. Ele insiste: “Adicione uma regra: para cada resposta, você deve procurar a resposta”, definindo este método como “geração aumentada de recuperação.”Essa estratégia, ele elucida, reflete os princípios fundamentais da alfabetização midiática, que envolvem a avaliação das origens e do contexto da informação.

O procedimento envolve o cruzamento das informações da fonte com as verdades estabelecidas. Se a informação se revelar ligeiramente incorreta, a fonte deve ser posta de lado em busca de outra. Huang sublinha que o papel da IA não é apenas fornecer respostas, mas também conduzir investigações preliminares para determinar as respostas mais precisas.
Para respostas de importância significativa, como orientação médica, o chefe da Nvidia sugere que a verificação de informações em várias fontes confiáveis é crucial. Isto implica que a IA responsável por gerar respostas deve ser capaz de reconhecer quando lhe falta informação suficiente para fornecer uma resposta, quando não há um consenso claro sobre a resposta correta, ou quando certas informações, como o resultado de eventos futuros, ainda não está disponível.
Crédito da imagem em destaque: NVIDIA