O rápido progresso da tecnologia de inteligência artificial (IA) e a sua crescente influência em muitas áreas da vida suscitaram discussões globais significativas sobre governação, ética e quadros regulamentares. Na vanguarda dessas discussões está a Lei de IA da UE—um quadro regulamentar pioneiro que visa estabelecer o padrão para estes tópicos em toda a Europa. Mas este não é apenas mais um esforço regulatório; representa uma visão mais ampla para moldar o futuro da IA de uma forma que garanta justiça, inclusão e respeito pelos direitos humanos. À medida que as tecnologias de IA e o seu impacto continuam a acelerar, torna-se cada vez mais claro que o envolvimento com estas regulamentações é crucial – não apenas para os criadores de IA, mas também para os decisores políticos, as empresas e a sociedade em geral.
A Dataconomy teve a oportunidade de falar com os principais líderes da UE e da ONU para explorar mais detalhadamente o impacto global da governação da IA. Estas entrevistas revelaram como a regulamentação e a ética da IA estão a evoluir à escala global, com a Lei da UE sobre IA a desempenhar um papel fundamental. Durante o Mostra de Empresa Digital (DES) 2024 em Málaga, Wendy Hall, uma Conselho Consultivo de IA da ONU membro e proeminente estrategista de IA do Reino Unido; Carme Artigas, copresidente do Órgão Consultivo da ONU sobre IA sobre Governança e Inclusão da IA; e Dan Nechita, chefe de gabinete do eurodeputado Dragos Tudorache e principal negociador técnico da Lei da IA da UE em nome do Parlamento Europeu, partilharam connosco as suas ideias exclusivas sobre como a governação, a ética e a regulamentação da IA estão a ser moldadas em tempo real.
Reduzindo a divisão global da IA
Wendy Salão, membro do Conselho Consultivo de IA da ONU e proeminente estrategista de IA do Reino Unido, defende fortemente uma abordagem globalmente colaborativa para a política de IA. Durante a nossa discussão, Hall enfatizou que embora a IA apresente vastas oportunidades, as estratégias utilizadas pelas diferentes nações variam amplamente. Por exemplo, o Reino Unido adotou uma abordagem mais abrangente e orientada por políticas para o desenvolvimento da IA. A partir de 2017, o governo do Reino Unido reconheceu o potencial da IA para o crescimento económico e a criação de emprego, posicionando o país como líder na governação da IA. Numa altura em que o Brexit consumiu o foco político, o Reino Unido ainda conseguiu trabalhar na política de IA. Hall observa que o envolvimento inicial do Reino Unido ajudou a estabelecer a sua proeminência, mas é rápida em salientar que outros países como os EUA e a China seguiram caminhos distintamente diferentes.
Nos EUA, o foco tem sido em grande parte capacitar empresas tecnológicas como a Google e a OpenAI para ultrapassarem os limites da IA, deixando a governação nas mãos do sector privado. Por outro lado, a China adoptou uma abordagem centralizada e orientada pelo Estado, com o governo a manter o controlo sobre a direcção estratégica da IA. Estas estratégias divergentes, explica Hall, realçam a complexidade da governação global da IA e a necessidade de políticas internacionais mais coesas.
No entanto, a principal preocupação de Hall não é a divergência entre estas nações líderes, mas sim o acesso desigual às tecnologias de IA em todo o mundo. Ela enfatiza a necessidade de um desenvolvimento equitativo da IA, especialmente para países fora do Ocidente rico. Regiões como a Sul Globalque muitas vezes carecem de infraestrutura e recursos para acompanhar os avanços da IA, correm o risco de ficar para trás. Hall afirma que esta divisão poderá aprofundar as desigualdades globais existentes, a menos que sejam implementadas iniciativas de capacitação.
“Estas regiões precisam de mais do que apenas acesso às tecnologias de IA – elas precisam de infraestrutura, talento e dados para desenvolver sistemas de IA adequados às suas próprias necessidades”, salienta Hall. Isto poderia incluir fornecer aos países do Sul Global acesso a sistemas de computação de alto desempenho, conjuntos de dados e conhecimentos técnicos necessários para construir modelos de IA localmente. Hall defende iniciativas globais que ofereçam as ferramentas e os recursos necessários para que estes países participem ativamente na revolução da IA, em vez de consumidores passivos de tecnologia desenvolvida noutros locais.
“Existe o risco de a IA aprofundar as desigualdades globais se não garantirmos o acesso equitativo à infraestrutura e ao talento necessários”
Uma preocupação particular para Hall é o desenvolvimento rápido e desenfreado de modelos generativos de IA, como GPT-4 da OpenAI. Embora estes modelos ofereçam possibilidades inovadoras, também apresentam riscos significativos sob a forma de desinformação, desinformação e abuso ético. Hall é cauteloso quanto às consequências não intencionais de tecnologias tão poderosas, observando que a IA generativa pode produzir conteúdo convincente, mas totalmente falso, se não for cuidadosamente regulamentada.
Ela chama a atenção para as implicações mais amplas, explicando que, embora as tecnologias anteriores de IA, como a automação, se concentrassem principalmente na melhoria da eficiência, a IA generativa tem impacto direto na criação e disseminação de conhecimento. “Vimos isso com a desinformação online: se os dados recebidos forem falhos, o resultado poderá ser prejudicial e numa escala com a qual nunca havíamos lidado antes”, alerta Hall. Os riscos são elevados, especialmente quando as tecnologias de IA influenciam as decisões em setores críticos como os cuidados de saúde, o direito e as finanças.
Para Hall, a solução reside na defesa de parcerias globais destinadas a criar padrões éticos e quadros de governação robustos. Ela defende o estabelecimento de acordos internacionais para garantir que as tecnologias de IA sejam desenvolvidas e implantadas de forma responsável, sem contribuir para danos sociais. Hall destaca a importância de envolver diversas partes interessadas, incluindo governos, empresas privadas e organizações da sociedade civil, para estabelecer regulamentos que equilibrem a inovação com a segurança pública.
A perspectiva de Hall sublinha um ponto crítico: a IA poderia exacerbar as desigualdades globais existentes e introduzir novos dilemas éticos sem colaboração e governação partilhada. O apelo de Hall ao desenvolvimento de capacidades e à supervisão ética não é apenas uma recomendação – é um passo necessário para garantir que a IA seja desenvolvida para beneficiar a humanidade como um todo, e não apenas um grupo seleto.
Garantir uma governação inclusiva da IA
Carme Artigascopresidente do Órgão Consultivo de IA da ONU sobre Governança e Inclusão da IA, traz uma perspectiva crítica para a conversa sobre o desenvolvimento global da IA – focada nas disparidades gritantes na forma como diferentes nações são incluídas nas discussões sobre governança de IA. Artigas sublinha que os actuais quadros que regem a IA, incluindo iniciativas lideradas pelo G7, pela UNESCO e pela OCDE, são largamente dominados por nações mais ricas e tecnologicamente mais avançadas, deixando de fora as principais vozes do Sul Global. “Muitos países do Sul Global nem sequer são convidados para a mesa”, salienta Artigas, referindo-se às discussões globais que moldam o futuro da IA. Na sua opinião, esta exclusão constitui um grande défice de governação e corre o risco de criar uma nova forma de colonialismo digital. À medida que as tecnologias de IA avançam, os países que não dispõem de recursos ou de influência para participar na elaboração de políticas internacionais de IA poderão ficar ainda mais para trás. Para Artigas, isto não é apenas uma questão de justiça – é um risco fundamental para a estabilidade e a igualdade globais.
Artigas destaca a necessidade de um modelo de governança que vá além dos marcos tradicionais dos órgãos reguladores. Em vez de criar uma única agência internacional para supervisionar a governação da IA, ela defende o aproveitamento das instituições existentes. “Não precisamos de mais agências; precisamos de uma melhor coordenação entre as que já existem”, explica. Organizações como a UIT (União Internacional de Telecomunicações), UNICEFe OMPI (Organização Mundial da Propriedade Intelectual) já estão profundamente envolvidos em questões relacionadas com a IA, cada um dentro dos seus próprios setores. O que falta é uma abordagem coordenada que reúna estas agências especializadas sob uma estrutura de governação global unificada.
“A verdadeira governação deve ir além de meras directrizes e incluir mecanismos de responsabilização”
A visão de Artigas é aquela em que a IA seja governada de uma forma que respeite o direito internacional e os direitos humanos e garanta que todos os países – independentemente da sua posição tecnológica – tenham acesso igual aos benefícios que a IA pode trazer. Isto inclui fornecer as ferramentas e recursos necessários para que os países atualmente excluídos dos avanços da IA possam recuperar o atraso. Ela observa que o setor privado e o meio académico também têm um papel a desempenhar na ajuda à democratização do acesso às tecnologias de IA.
Contudo, Artigas ressalta que as diretrizes éticas por si só não são suficientes. Embora muitas empresas tenham desenvolvido os seus quadros éticos internos, ela argumenta que estes são muitas vezes voluntários e inexequíveis. A verdadeira governação, afirma ela, deve ir além de meras directrizes e incluir mecanismos de responsabilização. Sem consequências claras para o desenvolvimento ou implantação antiética da IA, os riscos de utilização indevida e de danos – especialmente para as populações vulneráveis – permanecem elevados.
Uma das principais questões levantadas por Artigas é o papel da IA no agravamento da exclusão digital. Se não for devidamente regulamentada, a IA poderá consolidar ainda mais as desigualdades existentes, com as nações mais ricas a ganharem mais poder económico e tecnológico, enquanto as nações mais pobres ficarão ainda mais para trás. Para ela, o objetivo da governação da IA deve ser eliminar esta divisão, e não aumentá-la. “A IA tem potencial para ser um grande equalizador, mas apenas se garantirmos que os seus benefícios são partilhados igualmente”, enfatiza.
O foco de Artigas na inclusão e coordenação na governação da IA reflecte o reconhecimento crescente de que a IA é uma questão global que requer soluções globais. O seu apelo a uma abordagem unificada – onde as agências existentes trabalhem em conjunto para governar a IA – sublinha a necessidade de um sistema mais inclusivo, ético e responsável que beneficie toda a humanidade, e não apenas alguns seleccionados.
Equilibrando inovação e regulamentação
Dan Nechitachefe de gabinete do eurodeputado Dragos Tudorache e principal negociador técnico da Lei da IA da UE, traz uma perspectiva pragmática, mas inovadora, à discussão sobre a governação da IA. Como uma das principais figuras por trás da Lei de IA da UE, Nechita enfatiza a importância de equilibrar a inovação com a necessidade de uma regulamentação robusta para garantir que as tecnologias de IA sejam desenvolvidas e utilizadas com segurança.
Segundo Nechita, o Lei da UE sobre IA foi concebido para estabelecer regras claras para os sistemas de IA, especialmente aqueles considerados de alto risco, como a IA utilizada nos cuidados de saúde, na educação, na aplicação da lei e noutros setores críticos. “Não se trata apenas de regulamentar a tecnologia em si”, explica Nechita. “Trata-se de proteger os direitos fundamentais e garantir que a IA não agrava os problemas sociais existentes, como a discriminação ou as violações da privacidade.”
Uma das características de destaque da Lei de IA da UE é a ênfase na gestão de riscos. Nechita explica que os sistemas de IA são classificados com base no nível de risco que representam, estando os sistemas de maior risco sujeitos às regulamentações mais rigorosas. Esta abordagem escalonada permite flexibilidade, permitindo à Europa manter a sua liderança na inovação da IA, assegurando ao mesmo tempo que as aplicações mais sensíveis sejam rigorosamente regulamentadas. Para Nechita, este equilíbrio entre inovação e regulamentação é crucial para manter a competitividade da Europa no panorama global da IA.
No entanto, Nechita reconhece que a implementação da Lei da UE sobre IA é um processo complexo e contínuo. Um dos desafios é garantir que todos os 27 estados membros da UEcada um com as suas próprias prioridades e estratégias nacionais, aderem a um quadro regulamentar unificado. A Lei da UE sobre IA exige cooperação entre governos, líderes da indústria e órgãos reguladores para garantir o seu sucesso. “Estamos promovendo um ciclo de feedback contínuo entre empresas e reguladores, garantindo que os sistemas de IA evoluam com segurança e, ao mesmo tempo, permaneçam em conformidade à medida que surgem novas tecnologias”, explica Nechita. “Não estamos apenas entregando às empresas um conjunto de regras e indo embora. Pedimos que trabalhem conosco continuamente para testar seus sistemas, relatar problemas e garantir a conformidade.”
“A IA transformará o mundo e devemos guiá-la numa direção que beneficie a todos”
Nechita também ressalta que a Lei de IA da UE não trata apenas da criação de regulamentações estáticas. A lei inclui disposições para atualizações e revisões contínuas à medida que as tecnologias de IA evoluem. Ele argumenta que esta abordagem dinâmica é essencial porque a IA é um campo em rápida evolução e as regulamentações devem acompanhar os novos desenvolvimentos. É por isso que a Lei da UE sobre IA incentiva o diálogo contínuo entre os criadores e os reguladores de IA, promovendo uma relação onde a inovação e a segurança possam coexistir.
No entanto, Nechita também está consciente do contexto global mais amplo. Embora a UE tenha assumido uma posição proativa em relação à regulamentação da IA, outras regiões, especialmente os EUA e a China, têm abordagens diferentes. Nos EUA, a regulamentação da IA é mais fragmentada, com as empresas em grande parte auto-reguladas, enquanto o desenvolvimento da IA controlada pelo Estado na China dá prioridade aos interesses nacionais sobre os direitos individuais. Nechita reconhece que será difícil alcançar um consenso global sobre a governação da IA, mas vê potencial para colaboração em áreas como Segurança, sustentabilidade e padrões éticos de IA.
Nechita prevê um modelo de governança de IA que equilibra inovação com segurança pública. Ele acredita que a Lei da IA da UE, centrada na gestão de riscos, na transparência e na colaboração contínua, oferece um modelo de como outras regiões podem abordar a regulamentação da IA. Ao mesmo tempo, sublinha a necessidade de cooperação global, especialmente na abordagem das implicações éticas e sociais da IA.
À medida que a Lei da IA da UE continua a tomar forma, Nechita permanece optimista quanto ao seu potencial para estabelecer um padrão global para a governação da IA: “A IA vai mudar o mundo e precisamos de garantir que muda para melhor”, conclui. A sua abordagem reflete uma compreensão diferenciada dos desafios futuros e uma forte crença no poder da regulamentação para orientar o desenvolvimento da IA numa direção que beneficie a sociedade.
Uma visão unificada para o futuro da IA
Os insights de Wendy Hall, Carme Artigas e Dan Nechita refletem um ponto de viragem crucial na governação da IA, à medida que observamos a evolução da IA a um ritmo sem precedentes. As suas perspectivas convergem para uma verdade inegável: a IA não é apenas um avanço tecnológico; é uma força que tem de ser firmemente desviada para não beneficiar poucos em detrimento de muitos.
A necessidade urgente de capacitação global e de controlos éticos da IA também é defendida por Wendy Hall, que nos pede para colmatar o fosso crescente entre as capacidades nesta área entre as nações desenvolvidas e em desenvolvimento. No entanto, o foco de Camre Artigas na inclusão e na responsabilização lembra-nos que a aplicação que precede qualquer governação deve ser parte integrante. A Lei da IA da UE é um exemplo válido de equilíbrio entre inovação e segurança e, portanto, de como outras regiões podem abordar a governação da IA.
Juntas, estas vozes traçam um quadro holístico do que é necessário para moldar o futuro da IA: foco na colaboração, na proteção dos direitos humanos e num quadro forte que incentive a inovação e, ao mesmo tempo, proteja os interesses públicos. É um caminho incrivelmente difícil pela frente, mas também com um enorme potencial. O futuro da IA é agora e cabe a nós fazer com que isso aconteça da maneira certa.