Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Sony lança o primeiro benchmark de preconceito ético do mundo para imagens de IA

byEmre Çıtak
6 Novembro 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

A Sony AI lançou o Fair Human-Centric Image Benchmark (FHIBE), o primeiro conjunto de dados de imagens humanas baseado em consentimento, disponível publicamente e globalmente diversificado, projetado para avaliar preconceitos em tarefas de visão computacional. Esta ferramenta avalia como os modelos de IA tratam as pessoas de vários grupos demográficos, abordando desafios éticos na indústria de IA por meio da coleta consentida de imagens de diversos participantes. O conjunto de dados, pronunciado como “Phoebe”, inclui imagens de quase 2.000 participantes pagos de mais de 80 países. Cada indivíduo forneceu consentimento explícito para compartilhar suas imagens, distinguindo o FHIBE de práticas comuns que envolvem a coleta de grandes volumes de dados da web sem permissão. Os participantes reservam-se o direito de remover as suas imagens a qualquer momento, garantindo o controlo contínuo dos seus dados pessoais. Esta abordagem sublinha o compromisso da Sony AI com os padrões éticos na aquisição de dados. Cada foto no conjunto de dados apresenta anotações detalhadas. Abrangem características demográficas e físicas, como idade, pronomes de gênero, ascendência e tom de pele. Fatores ambientais, incluindo condições de iluminação e fundos, também são observados. As configurações da câmera, como distância focal e exposição, fornecem contexto adicional para avaliações de modelos. Essa rotulagem abrangente permite uma análise precisa de como as variáveis ​​externas influenciam o desempenho da IA. Os testes com FHIBE confirmaram preconceitos previamente documentados em modelos de IA existentes. O benchmark vai além, oferecendo diagnósticos granulares dos fatores contribuintes. Por exemplo, os modelos exibiram menor precisão para indivíduos que usam pronomes “ela/dela”. A FHIBE identificou uma maior variabilidade de penteados como um elemento-chave, anteriormente negligenciado, por trás desta discrepância, permitindo aos investigadores identificar áreas específicas para melhoria no treino de modelos. Nas avaliações de questões neutras sobre a ocupação de um sujeito, os modelos de IA reforçaram os estereótipos. O benchmark revelou distorções em relação a grupos específicos de pronomes e ancestrais, com resultados rotulando os indivíduos como profissionais do sexo, traficantes de drogas ou ladrões. Este padrão destaca como as solicitações imparciais ainda podem produzir resultados discriminatórios com base em atributos demográficos. Quando questionados sobre possíveis crimes cometidos por indivíduos, os modelos geraram respostas tóxicas em taxas mais elevadas para determinados grupos. Isso incluía pessoas de ascendência africana ou asiática, pessoas com tons de pele mais escuros e indivíduos que se identificavam como “ele/ele/seu”. Tais descobertas expõem vulnerabilidades nos sistemas de IA que podem perpetuar danos através de resultados tendenciosos. A Sony AI afirma que o FHIBE demonstra que a coleta de dados ética, diversificada e justa é possível. A ferramenta agora está disponível publicamente para pesquisadores e desenvolvedores usarem em testes de viés. A Sony planeja atualizar o conjunto de dados ao longo do tempo para incorporar novas imagens e anotações. Um artigo de pesquisa detalhando essas descobertas apareceu em Natureza na quarta-feira.


Crédito da imagem em destaque

Tags: IASony

Related Posts

Spotify lança listas de reprodução solicitadas com tecnologia de IA

Spotify lança listas de reprodução solicitadas com tecnologia de IA

22 Janeiro 2026
Snap lança rastreamento granular do tempo de tela na atualização do Family Center

Snap lança rastreamento granular do tempo de tela na atualização do Family Center

22 Janeiro 2026
O Google Fotos redesenha o compartilhamento com carrossel imersivo em tela cheia

O Google Fotos redesenha o compartilhamento com carrossel imersivo em tela cheia

22 Janeiro 2026
NexPhone lança telefone com sistema operacional triplo por US$ 549

NexPhone lança telefone com sistema operacional triplo por US$ 549

22 Janeiro 2026
Antrópico revisa testes de contratação por conta de Claude AI

Antrópico revisa testes de contratação por conta de Claude AI

22 Janeiro 2026
Blue Origin marca lançamento no final de fevereiro para a terceira missão New Glenn

Blue Origin marca lançamento no final de fevereiro para a terceira missão New Glenn

22 Janeiro 2026

Recent Posts

  • Spotify lança listas de reprodução solicitadas com tecnologia de IA
  • Snap lança rastreamento granular do tempo de tela na atualização do Family Center
  • O Google Fotos redesenha o compartilhamento com carrossel imersivo em tela cheia
  • NexPhone lança telefone com sistema operacional triplo por US$ 549
  • Antrópico revisa testes de contratação por conta de Claude AI

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.