Conheça o projeto RAIES - Rede de Inteligência Artificial Ética e Segura

O projeto RAIES é um projeto que surgiu através do Edital da FAPERGS, liderado pelo NAVI AI New Ventures, AIRES PUCRS entre outros atores. Tem como objetivo principal tornar a IA mais ética e segura para todos que a utilizam. “Hoje muitas empresas do setor público e privado utilizam Inteligência Artificial (IA), nosso objetivo é apoiar esses desenvolvedores por meio deste projeto que é interdisciplinar. Temos alunos da Escola Politécnica, da Escola de Direito, Escola de Medicina e da Escola de Humanidades, que é onde eu e o Nicholas atuamos com a ética. Esse projeto, além de interdisciplinar, é intergeracional porque temos colegas de diferentes faixas etárias”, explica o pesquisador Nythamar Hilario Coordenador do projeto.


A Inteligência Artificial está cada vez mais presente em nossas vidas, tarefas anteriormente realizadas por nós agora são delegadas a sistemas implementados com inteligência artificial, a chamada 4ª Revolução Industrial é o culminar da era digital. Uma das grandes diferenças entre o atual momento de modernização tecnológica e aqueles que ocorreram no passado, é que máquinas estão progressivamente ultrapassando nossas capacidades cognitivas em diversas áreas.


Alguns exemplos de utilização da IA pelo poder público brasileiro:


  • A Caixa Econômica Federal utiliza IA para predição de transações eletrônicas fraudulentas;

  • O Supremo Tribunal Federal utiliza a IA para categorizar os procedimentos legais sob repercussão geral;

  • O Departamento da Polícia Federal utiliza a IA para para o reconhecimento facial e modelos de linguagem natural para precisão de risco (e.g., detecção de fraudes).


Como toda tecnologia, a IA pode ser utilizada de forma incorreta, ou até mesmo perigosa. Não são poucos os casos em que o uso incorreto da IA tem causado sérios danos aos consumidores e à reputação de empresas. Dessa forma, questões éticas, prospecção de riscos e medidas de segurança são fatores que não podem ser esquecidos no desenvolvimento deste tipo de tecnologia


  • Sistemas de reconhecimento facial podem possuir vieses racistas (Lohr, 2018; Nunes, 2019);

  • Sistemas de NLP (Natural Language Processing) podem possuir vieses sexistas e misóginos (Wolf et al., 2017; Balch, 2020);

  • Sistemas de classificação podem discriminar membros da comunidade LGBTQ+ (Wang & Kosinski, 2017; Agüera y Arcas et al., 2018).


Então o projeto nasce com a intenção de incentivar a criação e formalização de um novo agente para operar dentro de organizações e empresas voltadas ao desenvolvimento de tecnologias e soluções que utilizem tais tipos de sistemas. Sendo eles os responsáveis por prevenir e mitigar os possíveis efeitos colaterais associados à utilização da IA.


Objetivo principal:


Desenvolver embasamento teórico e técnico para apoiar desenvolvedores e empresas que produzam aplicações através de sistemas inteligentes (IA) a instituir políticas que promovam o desenvolvimento de IA Ética e Segura.


Objetivos específicos:


  1. Estruturar um grupo de discussões interdisciplinar sobre o tema do projeto (IA Ética e Segura);

  2. Realizar pesquisa aplicada para avaliar a influência de diretrizes éticas e dilemas morais em empresas e profissionais da área de tecnologia.

  3. Redigir um manual de boas práticas que contenha uma série de ferramentas que auxiliem desenvolvedores a conceber modelos e sistemas éticos e seguros;

  4. Desenvolver metodologias e ferramentas computacionais que auxiliem empresas e desenvolvedores na implementação de modelos de IA responsáveis.

  5. Produzir estudos que validem a eficiência de diferentes metodologias voltadas para criação de IA ética e segura.

  6. Testar as metodologias e ferramentas computacionais com empresas e startups focadas no desenvolvimento de aplicações empoderadas por IA;

  7. Refinar nossa metodologia a partir do feedback e experiência que teremos a partir de nossos estudos de caso (i.e., aplicações da metodologia em diferentes empresas/setores);

  8. Publicar nossa metodologia/manual e auxiliar na formação de RH especializados em ética e segurança da IA;

  9. Realização de dois congressos internacionais sobre Ética e Segurança da IA, com objetivo de tornar o estado do RS uma referência na área.

  10. Apoiar os órgãos governamentais e a sociedade civil na discussão e regulamentação da IA no país.


Confira a íntegra do texto:

https://tecnopuc.pucrs.br/projeto-raies-propoe-desenvolver-base-de-ferramentas-confiaveis-para-desenvolvedores-de-ia/