Essa preocupação já se reflete em ações de determinadas organizações, como é o caso do World Economic Fórum (WEF), que tem se destacado ao propor diretrizes para o uso responsável da IA nas organizações. Em suas publicações, o WEF sugere que as empresas implementem uma governança de IA orientada por riscos, alinhando a complexidade das medidas ao nível de impacto que a tecnologia pode causar.
Em outras palavras, a governança de IA exige uma perspectiva inovadora e adaptável, capaz de lidar com a complexidade e o impacto que essa tecnologia causa nas organizações. Neste artigo, vamos abordar como podemos estabelecer uma governança eficaz para a inteligência artificial. Acompanhe!
O que é governança de IA?
A governança de IA nada mais é do que a criação de políticas, processos e estruturas para que o seu uso seja responsável e seguro dentro das empresas. O objetivo primordial é promover transparência, explicabilidade e responsabilidade nas decisões algorítmicas, além de abordar questões como privacidade, segurança e conformidade jurídica. Desse modo, o programa de governança de IA envolve a definição de políticas claras, controle rigoroso dos dados, auditorias regulares e um compromisso com o respeito às normas, sobretudo dados pessoais e direitos autorais.
Legislação brasileira sobre governança de IA
Embora o Brasil ainda não tenha uma legislação única e ampla sobre IA, diversas normas e leis impactam a utilização da tecnologia. No entanto, há Projetos de Lei, como o Projeto de Lei nº 21/20 e o Projeto de Lei nº 2.338/2023, estão em discussão para centralizar a regulação da IA. A Estratégia Brasileira de Inteligência Artificial, publicada em 2021 pelo Ministério da Ciência, Tecnologia e Inovação, orienta o desenvolvimento de soluções em IA. Além disso, leis como o Marco Civil da Internet, a Lei Geral de Proteção de Dados Pessoais (LGPD) e o Código de Defesa do Consumidor já afetam diretamente o uso da IA no Brasil.
Governança de IA no cenário internacional
A regulamentação da IA tem se desenvolvido globalmente. Na União Europeia, a Comissão Europeia propôs um regulamento visando melhorar a confiança e a responsabilização no uso da IA, conhecido como “AI Act“, com previsão de publicação até o final de 2023. Nos Estados Unidos, não há uma legislação específica, mas existem normas setoriais como o “AI in Government Act of 2020” e a “Executive Order 13960”. Na China, diretrizes estão sendo elaboradas para promover o desenvolvimento ético da IA. Por fim, outros países, como Canadá, Austrália, Japão e Singapura, também estão formulando políticas de governança de IA, embora ainda não tenham regulamentações específicas.
Por que implementar a Governança de IA?
A implementação de políticas de governança de IA é uma tendência crescente entre empresas, desde as desenvolvedoras de tecnologia, até aquelas que a utilizam. A governança de IA pode ajudar as organizações a alcançar vários objetivos importantes, como garantir segurança jurídica, gerenciar riscos, proteger dados e privacidade, promover transparência e confiança, assegurar qualidade e desempenho dos sistemas, e melhorar a reputação e competitividade da empresa.
Por esse motivo, muitas empresas já estão avançando na criação de políticas e sistemas de governança para a IA. Vale destacar que não são apenas as grandes empresas de tecnologia ou aquelas que desenvolvem IA que estão adotando tais sistemas internos, mas também, e especialmente, as empresas que utilizam essas tecnologias. Afinal, assim como as fornecedoras de IA, as empresas que contratam essas soluções também enfrentam riscos éticos e regulatórios associados à tecnologia.
Como implementar a governança de IA?
Para estabelecer uma governança eficaz de IA, é essencial adotar um planejamento estruturado. Primeiramente, defina objetivos e princípios claros, avalie o contexto da empresa e identifique e avalie os riscos associados ao uso da IA. O primeiro passo é contar com uma equipe multidisciplinar para liderar a implementação para desenvolver políticas e diretrizes claras, e estabelecer os processos de tomada de decisão. Além disso, é importante também implementar mecanismos de monitoramento e auditoria, promover a capacitação da equipe e criar canais de comunicação para questões relacionadas à IA.
Quais são os princípios da governança de IA?
Os princípios orientadores para a governança de IA são:
- Precisão dos algoritmos;
- Auditabilidade;
- Explicabilidade;
- Equidade;
- Alinhamento aos Direitos Humanos;
- Segurança;
Note que estes princípios fazem com que a IA seja usada de maneira ética e responsável, protegendo tanto os interesses dos usuários quanto os Direitos Fundamentais.
Como identificar riscos relacionados à IA?
Para identificar os riscos relacionados à implementação e ao uso de sistemas de IA em seus processos, é essencial que sua empresa considere os riscos éticos, legais, técnicos e de segurança, para então desenvolver estratégias eficazes de mitigação.
Primeiramente, é necessário alinhar a avaliação de riscos aos princípios éticos definidos internamente para o uso de IA. Isso significa identificar os potenciais impactos negativos que a IA pode gerar em operações, produtos, serviços e nas partes interessadas. Além disso, deve-se levar em conta os riscos técnicos, como falhas em algoritmos, desempenho insatisfatório, falta de transparência e vieses algorítmicos.
Outro ponto importante é a avaliação dos desafios relacionados à integração da IA com sistemas já existentes, considerando a escalabilidade, interoperabilidade e a segurança dos dados. Já do ponto de vista operacional, há que se avaliar o grau de dependência excessiva da IA, a falta de qualificação adequada para gerenciar essas tecnologias, as mudanças organizacionais necessárias e possíveis resistências internas.
Por fim, é necessário considerar os riscos de conformidade, como as obrigações legais e regulatórias que envolvem privacidade, proteção de dados, segurança da informação e direitos do consumidor, conforme aplicável ao setor de atuação da empresa.