Notícias

FGV Direito SP publica framework para comitês de ética em IA

O estudo foi desenvolvido com parte de um programa de governança e gestão de riscos, seguindo as tendências regulatórias da Europa, EUA e no Brasil.


O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP realizou uma pesquisa para entender o papel dos comitês de ética na governança e na gestão de riscos dos projetos que se utilizam de técnicas de inteligência artificial nas organizações.

Com o avanço do uso desse tipo de tecnologia por todo o mercado e pela sociedade em geral, especialmente após o lançamento de soluções como o ChatGPT, o processo de regulação do uso da inteligência artificial (IA) tem se intensificado no mundo. A Europa aprovou em maio o texto final do seu AI Act, que vai para votação em plenário em junho. Nos Estados Unidos, a Casa Branca publicou a minuta de AI Bill of Rights (2022), e a última reunião do G7 realizada no Japão colocou o tema como central, instituindo uma agenda focada nessa temática. No Brasil, após a publicação do relatório da comissão de juristas instituída pelo Senado, o texto virou projeto de lei, que promete muita discussão no segundo semestre.

Entre todas essas iniciativas, um ponto comum é que a utilização de IA é muito contextual, e que não se deve regular a tecnologia, mas sim o seu impacto nas pessoas e na sociedade. Isso tem levado à adoção de um modelo de regulação baseada em risco, com uma série de obrigações de governança e compliance para as organizações que oferecerem soluções classificadas como de alto risco, especialmente ligadas a área da saúde, educação, recursos humanos, setor financeiro, entre outras. Mais do que oferecer filmes, propagandas ou músicas, a preocupação é o avanço dessas soluções para a escolha de candidatos para uma vaga de emprego, de seu atendimento no sistema de saúde ou ainda para o crédito, especialmente em relação aos aspectos éticos e discriminatórios.

A pauta ganhou força nos últimos anos com as políticas ESG, já que muitas das discussões sobre diversidade ("S") terão a ver com vieses indesejados refletidos nesses sistemas, e a governança ("G") é o caminho para mitigar os riscos reputacionais e jurídicos das organizações e seus gestores, que estão em jogo nesse ambiente em rápida expansão. Nesse contexto, a busca pela aplicação de princípios de transparência e explicabilidade requer um olhar sobre todo o ciclo de vida de desenvolvimento, desde os dados utilizados para treinamento, a tecnologia escolhida, a análise das saídas e resultados, entre diversos outros fatores, e os comitês de ética, AI advisory boards, ou AI advisory panels, com têm sido chamados pelas organizações, são peças fundamentais para entender todos esses riscos e discutir os dilemas éticos envolvidos.

Para contribuir com esse movimento, o CEPI lançou um passo a passo para a criação dessas estruturas. A metodologia está apresentada em um framework (quadro de referência), que contempla cinco pilares a serem analisados pelos líderes e diretores das organizações.

Segundo Alexandre Zavaglia, um dos líderes da pesquisa, além das discussões regulatórias, existe um movimento mundial chamado responsible AI, para discutir o papel das organizações no uso ético e responsável da inteligência artificial, e como criar projetos que respeitem os conceitos de sustentabilidade corporativa (ESG) e mitiguem os impactos negativos do uso dessa tecnologia na vida das pessoas. “Para se beneficiar de toda essa tecnologia, é preciso criar um ambiente de prevenção e controle desses riscos”, e montar “um time multidisciplinar para entender todos esses aspectos e tomar as decisões relacionadas à sua efetiva implantação em cada organização, seja em projetos de desenvolvimento próprio, ou pela utilização de tecnologia de terceiros”.

Guilherme Klafke, que também liderou o projeto de pesquisa, afirma que foram analisados 23 importantes comitês de ética existentes no mundo até esse momento, para entender os pilares principais para sua implementação, desde a sua finalidade, estrutura, composição, seus poderes e processo decisório. “Esse framework ajuda a navegar de acordo com a realidade e o contexto de cada organização, desde a criação de estruturas informais e focadas em analisar um tipo de solução pontual, como o uso de IA no RH, até ambientes mais organizados em empresas em que tem avançado IA no core do negócio, como no caso dos bancos digitais e grandes empresas da área da saúde”, diz.

Para Marina Feferbaum, coordenadora do CEPI, “esse é um dos estudos mais completos já realizados sobre o tema, e o framework terá grande repercussão nacional e internacional, como uma colaboração para as discussões regulatórias e de boas práticas que tem acontecido em todo o mundo, e vai auxiliar as organizações a entender como aplicar essa lógica de forma prática e didática”.

O relatório é fruto do projeto de pesquisa Governança em Inteligência Artificial (IA): framework para a criação de Comitê de Ética para soluções de IA. O projeto é uma iniciativa do CEPI da FGV Direito SP com financiamento de Dasa, B3, FICO e HubMandic.

Acesse a íntegra do relatório Governança da inteligência artificial em organizações: framework para comitês de ética em IA: versão 1.0