Projeto europeu para combater discriminação no uso da Inteligência Artificial nas administrações públicas

Nos dias 9 e 10 de setembro, Lisboa foi palco do lançamento de um importante projeto europeu, que visa combater a discriminação no uso da Inteligência Artificial (IA) nas administrações públicas. O evento, organizado pelo Conselho da Europa e pela Comissão para a Cidadania e Igualdade de Género (CIG), marcou o início da iniciativa “Defender a igualdade e a não-discriminação pelos Organismos para a Igualdade no que respeita à Inteligência Artificial (IA) nas administrações públicas”.
17 de Setembro, 2024

Este projeto, que decorre até agosto de 2026, pretende capacitar organismos a enfrentarem os desafios colocados pelos sistemas de IA, cada vez mais presentes nas administrações públicas e potencialmente causadores de discriminação. Estão previstas iniciativas de formação, partilha de boas práticas, criação de linhas de ação e ainda instrumentos de avaliação.

O projeto é promovido pela Direção-Geral de Apoio às Reformas Estruturais da Comissão Europeia (DG REFORM), a CIG, o Centro Interfederal Belga para Igualdade de Oportunidades (Unia) e o Gabinete da Ombudsman Finlandesa para a Não Discriminação.

Cofinanciado pela União Europeia, surge como resposta no âmbito do REGULAMENTO (UE) 2024/1689 DO PARLAMENTO EUROPEU E DO CONSELHO de 13 de junho de 2024 e da  Convenção-Quadro do Conselho da Europa sobre Inteligência Artificial e Direitos Humanos, que visam regular a utilização da  IA centrada no ser humano, coerente com os direitos humanos, a democracia e o Estado de direito, com enfoque especial no papel dos organismos de promoção da igualdade em toda a UE no que respeita ao combate à discriminação em razão do sexo, raça ou origem étnica, religião ou crença, deficiência, idade ou orientação sexual.

Se não forem monitorizadas, as decisões baseadas em IA podem perpetuar preconceitos e desigualdades sociais, afetando negativamente cidadãos vulneráveis. Um dos principais problemas é o viés nos dados e algoritmos. Se os dados utilizados refletirem desigualdades sociais, os sistemas podem amplificar essas distorções. Isso é preocupante em áreas como saúde, justiça e emprego, onde decisões enviesadas podem ter consequências graves. Outro desafio é a falta de transparência nos algoritmos, que funcionam muitas vezes como “caixas negras”. A dificuldade em entender como as decisões são tomadas levanta questões sobre responsabilidade e correção de erros. A redução da supervisão humana em decisões críticas também é um problema, pois fatores mais subtis podem ser ignorados pelos sistemas automatizados.

Para mitigar esses desafios, é essencial garantir transparência nos algoritmos, auditorias regulares e a seleção cuidadosa dos dados. A supervisão humana em decisões importantes deve ser mantida para assegurar que a justiça e a equidade prevaleçam. A implementação cautelosa da IA nas administrações públicas é crucial para evitar a criação de novos problemas de discriminação ou exclusão.

Durante a reunião em Lisboa, que teve lugar na Secretaria-Geral do Ambiente, foram delineados os próximos passos para garantir que a igualdade e a não discriminação estejam no centro da aplicabilidade da IA.

Este projeto reforça o compromisso europeu com a proteção dos direitos humanos e a promoção da igualdade num mundo cada vez mais digitalizado.

Outras páginas que podem ser úteis

 

Eventos