Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Lei da UE AI entra em vigor para os provedores de GPAI em 2 de agosto

byKerem Gülen
1 Agosto 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

A partir de 2 de agosto de 2025, as entidades que fornecem modelos de inteligência artificial de uso geral (GPAI) na União Europeia devem aderir a estipulações específicas descritas no Ato da UE AIincluindo a manutenção da documentação técnica atual e resumos de dados de treinamento.

A Lei da UE AI é uma estrutura legislativa abrangente, projetada para estabelecer padrões para o desenvolvimento ético e seguro e implantação das tecnologias de IA. Esse regulamento adota uma abordagem baseada em risco, categorizando os sistemas de IA com base em seus riscos potenciais e impacto nos indivíduos e na sociedade na União Europeia.

Embora os requisitos específicos para os provedores de modelos GPAI se tornem executáveis em 2 de agosto de 2025, foi estabelecido um período de carência de um ano, permitindo que as empresas obtenham conformidade total sem enfrentar penalidades até 2 de agosto de 2026. Esse período de carência se destina a facilitar uma transição suave para a nova paisagem regulatória.

Os fornecedores de modelos GPAI devem estar cientes e aderir a cinco conjuntos principais de regulamentos a partir de 2 de agosto de 2025. Eles abrangem vários aspectos da governança, avaliação e multas de IA.

O primeiro conjunto de regras refere -se aos órgãos notificados, conforme estipulado no Capítulo III, Seção 4 da Lei da UE. Os fornecedores de modelos GPAI de alto risco devem se preparar para se envolver com esses corpos para avaliações de conformidade e entender a estrutura regulatória que rege essas avaliações. Os órgãos notificados são organizações designadas responsáveis por avaliar a conformidade de produtos ou serviços específicos com os regulamentos aplicáveis da UE.

O segundo conjunto de regras, detalhado no capítulo V da Lei, aborda especificamente os modelos GPAI. Esta seção descreve os requisitos para documentação técnica, resumos de dados de treinamento e medidas de transparência que os provedores de modelos GPAI devem implementar.

O terceiro conjunto de regras, encontrado no capítulo VII, diz respeito à governança. Esta seção define a arquitetura de governança e execução nos níveis da UE e nacional. Ele exige cooperação com o escritório da UE da AI, o Conselho Europeu de IA, o painel científico e as autoridades nacionais no cumprimento das obrigações de conformidade, respondendo a solicitações de supervisão e participando de processos de monitoramento de riscos e relatórios de incidentes.

O quarto conjunto de regras, descrito no artigo 78, concentra -se na confidencialidade. Todas as solicitações de dados feitas pelas autoridades para os provedores de modelos GPAI devem ser legalmente justificados, manipulados com segurança e sujeitos a proteções de confidencialidade, especialmente em relação à propriedade intelectual, segredos comerciais e código -fonte. Isso garante a proteção de informações comerciais sensíveis durante a supervisão regulatória.

O conjunto final de regras, encontrado nos artigos 99 e 100, especifica multas por não conformidade. Essas penalidades são projetadas para garantir a adesão às disposições da Lei da IA e podem ser substanciais.

Os sistemas de IA de alto risco são definidos como aqueles que apresentam uma ameaça significativa à saúde, segurança ou direitos fundamentais. Esses sistemas são categorizados em dois grupos principais. Primeiro, aqueles usados como componentes de segurança dos produtos governados pelas leis de segurança do produto da UE. Segundo, os destacados em casos de uso sensíveis, que incluem identificação biométrica, gerenciamento crítico de infraestrutura, educação, emprego e RH e aplicação da lei.

Os modelos GPAI, que podem ser aplicados em vários domínios, são considerados para representar “risco sistêmico” se exceder 10^25 operações de ponto flutuante executadas por segundo (fracassos) durante o treinamento e forem designadas como tal pelo escritório da UE AI. Exemplos proeminentes de modelos GPAI que atendem a esses critérios incluem o ChatGPT da Openai, a Llama da Meta e o Google Gemini.

Todos os provedores de modelos GPAI são necessários para manter a documentação técnica abrangente, um resumo dos dados de treinamento, uma política de conformidade de direitos autorais, orientações para implantadores a jusante e medidas de transparência sobre recursos, limitações e uso pretendido. Esta documentação serve para fornecer clareza e responsabilidade no desenvolvimento e implantação dos sistemas de IA.

Os fornecedores de modelos GPAI que apresentam risco sistêmico enfrentam requisitos adicionais. Eles devem realizar avaliações de modelos, relatar incidentes, implementar estratégias de mitigação de riscos e salvaguardas de segurança cibernética, divulgar o uso de energia e executar o monitoramento pós-mercado. Essas medidas visam abordar os riscos aumentados associados a modelos de IA mais poderosos e amplamente utilizados.

Em relação às penalidades, os fornecedores de modelos GPAI podem enfrentar multas de até € 35.000.000 ou 7% de sua rotatividade anual total mundial, o que for maior, para não conformidade com práticas proibidas de IA, conforme definido no artigo 5. Essas práticas incluem manipular o comportamento humano, a pontuação social, a pontuação facial de dados de dados.

Outras violações de obrigações regulatórias, como as relacionadas à transparência, gerenciamento de riscos ou responsabilidades de implantação, podem resultar em multas de até 15.000.000 de euros ou 3% da rotatividade. Essas penalidades são projetadas para garantir a adesão aos requisitos mais amplos da Lei da IA.

O fornecimento de informações enganosas ou incompletas às autoridades pode levar a multas de até € 7.500.000 ou 1% da rotatividade. Esta disposição ressalta a importância da comunicação precisa e transparente com os órgãos regulatórios.

Para pequenas e médias empresas (PMEs) e startups, a menor do valor ou porcentagem fixa se aplica ao calcular penalidades. A gravidade da violação, seu impacto, a cooperação do provedor e se a violação foi intencional ou negligente são considerados ao determinar a penalidade apropriada.

Para facilitar a conformidade, a Comissão Europeia publicou o Código de Prática da IA, uma estrutura voluntária que as empresas de tecnologia podem adotar para implementar e aderir à Lei da IA. Empresas como Google, Openai e Anthrópica se comprometeram com ele, enquanto a Meta se recusou publicamente a protestar à legislação em sua forma atual.

A Comissão planeja publicar diretrizes suplementares com o Código de Prática da IA antes de 2 de agosto de 2025, que esclarecerá quais empresas se qualificam como fornecedores de modelos de uso geral e modelos de IA de uso geral com risco sistêmico. Essas diretrizes destinam -se a fornecer mais clareza e apoio às empresas que navegam no cenário regulatório.

A Lei da UE AI foi publicada oficialmente na revista oficial da UE em 12 de julho de 2024 e entrou em vigor em 1º de agosto de 2024. No entanto, a implementação de suas várias disposições é faseada em vários anos.

  • Em 2 de fevereiro de 2025, certos sistemas de IA considerados representam riscos inaceitáveis, como os usados para pontuação social ou vigilância biométrica em tempo real em público, foram proibidos. Além disso, as empresas que desenvolvem ou usam IA são necessárias para garantir que sua equipe tenha um nível suficiente de alfabetização de IA.
  • Em 2 de agosto de 2026, os modelos GPAI colocados no mercado após 2 de agosto de 2025 devem estar totalmente em conformidade com a Lei da UE AI. Além disso, as regras para certos sistemas de IA de alto risco listados também começam a se aplicar aos colocados no mercado após essa data e os colocados no mercado antes desta data que foram submetidos a modificação substancial desde então.
  • Em 2 de agosto de 2027, os modelos GPAI colocados no mercado antes de 2 de agosto de 2025 devem ser trazidos para a conformidade total. Os sistemas de alto risco usados como componentes de segurança dos produtos governados pelas leis de segurança do produto da UE também devem cumprir as obrigações mais rigorosas a partir desta data.
  • Em 2 de agosto de 2030, os sistemas de IA usados por organizações do setor público que se enquadram na categoria de alto risco devem alcançar total conformidade com a Lei da AI da UE.

Finalmente, em 31 de dezembro de 2030, os sistemas de IA que são componentes de sistemas específicos de TI em larga escala e foram colocados no mercado antes de 2 de agosto de 2027, devem ser colocados em conformidade. Isso marca o prazo final para alcançar a ampla conformidade em vários setores e aplicações.

Apesar dessas datas de implementação em fases, um grupo que representa a Apple, Google, Meta e outras empresas instou os reguladores a adiar a implementação da Lei em pelo menos dois anos. Essa solicitação foi finalmente rejeitada pela UE, ressaltando o compromisso com a linha do tempo estabelecida.


Crédito da imagem em destaque

Tags: Ato da UE AI

Related Posts

O figma fecha o primeiro dia de negociação com o valor de mercado de US $ 47 bilhões

O figma fecha o primeiro dia de negociação com o valor de mercado de US $ 47 bilhões

1 Agosto 2025
O Reddit ganha US $ 35 milhões de ofertas de licenciamento de IA no Q2

O Reddit ganha US $ 35 milhões de ofertas de licenciamento de IA no Q2

1 Agosto 2025
Coinbase revela US $ 307 milhões de violação de dados no segundo trimestre

Coinbase revela US $ 307 milhões de violação de dados no segundo trimestre

1 Agosto 2025
A Apple promete Siri mais inteligente e consciente do contexto em 2026

A Apple promete Siri mais inteligente e consciente do contexto em 2026

1 Agosto 2025
O OpenAI revela o projeto de data center da Noruega da Noruega Stargate

O OpenAI revela o projeto de data center da Noruega da Noruega Stargate

1 Agosto 2025
Nvidia estende o suporte ao Windows 10, adiciona monitores G-Sync

Nvidia estende o suporte ao Windows 10, adiciona monitores G-Sync

1 Agosto 2025

Recent Posts

  • O figma fecha o primeiro dia de negociação com o valor de mercado de US $ 47 bilhões
  • O Reddit ganha US $ 35 milhões de ofertas de licenciamento de IA no Q2
  • Coinbase revela US $ 307 milhões de violação de dados no segundo trimestre
  • A Apple promete Siri mais inteligente e consciente do contexto em 2026
  • O OpenAI revela o projeto de data center da Noruega da Noruega Stargate

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.