Artwork

Contenuto fornito da Programas Arquivos - Engenharia Rádio. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Programas Arquivos - Engenharia Rádio o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial?

30:41
 
Condividi
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on May 12, 2024 03:21 (10d ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 390748956 series 2480659
Contenuto fornito da Programas Arquivos - Engenharia Rádio. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Programas Arquivos - Engenharia Rádio o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Science Bits é um podcast produzido pelo INESC TEC e Engenharia Rádio, que aborda as últimas tendências de ciência e tecnologia. Neste mês, vamos falar sobre a utilização de modelos de inteligência artificial para reconhecimento facial.

Em agosto de 2023, chegavam-nos notícias do outro lado do Atlântico que davam conta de que uma mulher de 32 anos, chamada Porcha Woodruff, havia sido erradamente detida, devido a um erro na tecnologia de reconhecimento facial da polícia de Detroit. Segundo a imprensa norte-americana tratava-se da sexta pessoa a ser detida de forma indevida por falhas nos modelos de inteligência artificial – todas pessoas negras. Certo é que vários estudos indicam que existe um problema de viés na utilização desta tecnologia. Um dos exemplos é o estudo “Gender Shades” de 2018, que avaliou três algoritmos de classificação de género, incluindo modelos desenvolvidos pela IBM e pela Microsoft. Os três algoritmos apresentaram um pior desempenho em mulheres com tom de pele escuro. Já em homens com tom de pele claro, o erro ficou abaixo de um por cento.

No início deste mês, a Europa alcançou um acordo para regular a Inteligência Artificial. Depois de uma maratona de negociações que durou mais de 30 horas, os colegisladores da União Europeia, Conselho e Parlamento Europeu convergiram para avançar com aquela que será a primeira lei do mundo a ditar as regras para a utilização de IA. A AI Act prevê, entre outras, a proibição de sistemas de categorização biométrica que utilizem caraterísticas sensíveis, nomeadamente “convicções políticas, religiosas, filosóficas, orientação sexual ou etnia”. A exceção vai para o recurso a sistemas de vigilância biométrica para identificação de vítimas ou em casos de crimes considerados graves, por exemplo.

Mas, porque se verifica este viés? Qual poderá ser a solução? É o que vamos descobrir na conversa com Pedro Neto, Investigador do INESC TEC.

Pedro Neto, Investigador do INESC TEC

Recentemente, o artigo “Compressed Models Decompress Race Biases: What Quantized ModelsForget for Fair Face Recognition” da autoria de Pedro Neto, Eduarda Caldeira, Jaime Cardoso e Ana Sequeira, investigadores do INESC TEC, foi distinguido na edição de 2023 da International Conference of the Biometrics Special Interest Group (BIOSIG). O trabalho de investigação conclui que a utilização de modelos de inteligência artificial comprimidos para reconhecimento facial pode resultar num viés racial. O estudo identifica também uma potencial estratégia para resposta a esta problemática, através do uso de dados sintéticos. Mais informação aqui.

O conteúdo INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial? aparece primeiro em Engenharia Rádio.

  continue reading

301 episodi

Artwork
iconCondividi
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on May 12, 2024 03:21 (10d ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 390748956 series 2480659
Contenuto fornito da Programas Arquivos - Engenharia Rádio. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Programas Arquivos - Engenharia Rádio o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Science Bits é um podcast produzido pelo INESC TEC e Engenharia Rádio, que aborda as últimas tendências de ciência e tecnologia. Neste mês, vamos falar sobre a utilização de modelos de inteligência artificial para reconhecimento facial.

Em agosto de 2023, chegavam-nos notícias do outro lado do Atlântico que davam conta de que uma mulher de 32 anos, chamada Porcha Woodruff, havia sido erradamente detida, devido a um erro na tecnologia de reconhecimento facial da polícia de Detroit. Segundo a imprensa norte-americana tratava-se da sexta pessoa a ser detida de forma indevida por falhas nos modelos de inteligência artificial – todas pessoas negras. Certo é que vários estudos indicam que existe um problema de viés na utilização desta tecnologia. Um dos exemplos é o estudo “Gender Shades” de 2018, que avaliou três algoritmos de classificação de género, incluindo modelos desenvolvidos pela IBM e pela Microsoft. Os três algoritmos apresentaram um pior desempenho em mulheres com tom de pele escuro. Já em homens com tom de pele claro, o erro ficou abaixo de um por cento.

No início deste mês, a Europa alcançou um acordo para regular a Inteligência Artificial. Depois de uma maratona de negociações que durou mais de 30 horas, os colegisladores da União Europeia, Conselho e Parlamento Europeu convergiram para avançar com aquela que será a primeira lei do mundo a ditar as regras para a utilização de IA. A AI Act prevê, entre outras, a proibição de sistemas de categorização biométrica que utilizem caraterísticas sensíveis, nomeadamente “convicções políticas, religiosas, filosóficas, orientação sexual ou etnia”. A exceção vai para o recurso a sistemas de vigilância biométrica para identificação de vítimas ou em casos de crimes considerados graves, por exemplo.

Mas, porque se verifica este viés? Qual poderá ser a solução? É o que vamos descobrir na conversa com Pedro Neto, Investigador do INESC TEC.

Pedro Neto, Investigador do INESC TEC

Recentemente, o artigo “Compressed Models Decompress Race Biases: What Quantized ModelsForget for Fair Face Recognition” da autoria de Pedro Neto, Eduarda Caldeira, Jaime Cardoso e Ana Sequeira, investigadores do INESC TEC, foi distinguido na edição de 2023 da International Conference of the Biometrics Special Interest Group (BIOSIG). O trabalho de investigação conclui que a utilização de modelos de inteligência artificial comprimidos para reconhecimento facial pode resultar num viés racial. O estudo identifica também uma potencial estratégia para resposta a esta problemática, através do uso de dados sintéticos. Mais informação aqui.

O conteúdo INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial? aparece primeiro em Engenharia Rádio.

  continue reading

301 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida