Governança de Inteligência Artificial: o que é, e como funciona?

Governança de Inteligência Artificial: o que é, e como funciona?

O surgimento da inteligência artificial otimizou os fluxos de trabalho, mas os riscos e as responsabilidades das empresas aumentaram proporcionalmente aos benefícios do avanço tecnológico. Por esse motivo, a governança de IA é essencial para que os princípios éticos e a legislação sejam respeitados.

Essa preocupação já se reflete em ações de determinadas organizações, como é o caso do World Economic Fórum (WEF), que tem se destacado ao propor diretrizes para o uso responsável da IA nas organizações. Em suas publicações, o WEF sugere que as empresas implementem uma governança de IA orientada por riscos, alinhando a complexidade das medidas ao nível de impacto que a tecnologia pode causar.

Em outras palavras, a governança de IA exige uma perspectiva inovadora e adaptável, capaz de lidar com a complexidade e o impacto que essa tecnologia causa nas organizações. Neste artigo, vamos abordar como podemos estabelecer uma governança eficaz para a inteligência artificial. Acompanhe!

 

O que é governança de IA?

A governança de IA nada mais é do que a criação de políticas, processos e estruturas para que o seu uso seja responsável e seguro dentro das empresas. O objetivo primordial é promover transparência, explicabilidade e responsabilidade nas decisões algorítmicas, além de abordar questões como privacidade, segurança e conformidade jurídica. Desse modo, o programa de governança de IA envolve a definição de políticas claras, controle rigoroso dos dados, auditorias regulares e um compromisso com o respeito às normas, sobretudo dados pessoais e direitos autorais.

 

Legislação brasileira sobre governança de IA

Embora o Brasil ainda não tenha uma legislação única e ampla sobre IA, diversas normas e leis impactam a utilização da tecnologia. No entanto, há Projetos de Lei, como o Projeto de Lei nº 21/20 e o Projeto de Lei nº 2.338/2023, estão em discussão para centralizar a regulação da IA. A Estratégia Brasileira de Inteligência Artificial, publicada em 2021 pelo Ministério da Ciência, Tecnologia e Inovação, orienta o desenvolvimento de soluções em IA. Além disso, leis como o Marco Civil da Internet, a Lei Geral de Proteção de Dados Pessoais (LGPD) e o Código de Defesa do Consumidor já afetam diretamente o uso da IA no Brasil.

 

Governança de IA no cenário internacional

A regulamentação da IA tem se desenvolvido globalmente. Na União Europeia, a Comissão Europeia propôs um regulamento visando melhorar a confiança e a responsabilização no uso da IA, conhecido como “AI Act“, com previsão de publicação até o final de 2023. Nos Estados Unidos, não há uma legislação específica, mas existem normas setoriais como o “AI in Government Act of 2020” e a “Executive Order 13960”. Na China, diretrizes estão sendo elaboradas para promover o desenvolvimento ético da IA. Por fim, outros países, como Canadá, Austrália, Japão e Singapura, também estão formulando políticas de governança de IA, embora ainda não tenham regulamentações específicas.

 

Por que implementar a Governança de IA?

A implementação de políticas de governança de IA é uma tendência crescente entre empresas, desde as desenvolvedoras de tecnologia, até aquelas que a utilizam. A governança de IA pode ajudar as organizações a alcançar vários objetivos importantes, como garantir segurança jurídica, gerenciar riscos, proteger dados e privacidade, promover transparência e confiança, assegurar qualidade e desempenho dos sistemas, e melhorar a reputação e competitividade da empresa.

Por esse motivo, muitas empresas já estão avançando na criação de políticas e sistemas de governança para a IA. Vale destacar que não são apenas as grandes empresas de tecnologia ou aquelas que desenvolvem IA que estão adotando tais sistemas internos, mas também, e especialmente, as empresas que utilizam essas tecnologias. Afinal, assim como as fornecedoras de IA, as empresas que contratam essas soluções também enfrentam riscos éticos e regulatórios associados à tecnologia.

 

Como implementar a governança de IA?

Para estabelecer uma governança eficaz de IA, é essencial adotar um planejamento estruturado. Primeiramente, defina objetivos e princípios claros, avalie o contexto da empresa e identifique e avalie os riscos associados ao uso da IA. O primeiro passo é contar com uma equipe multidisciplinar para liderar a implementação para desenvolver políticas e diretrizes claras, e estabelecer os processos de tomada de decisão. Além disso, é importante também implementar mecanismos de monitoramento e auditoria, promover a capacitação da equipe e criar canais de comunicação para questões relacionadas à IA.

 

Quais são os princípios da governança de IA?

Os princípios orientadores para a governança de IA são:

  • Precisão dos algoritmos;
  • Auditabilidade;
  • Explicabilidade;
  • Equidade;
  • Alinhamento aos Direitos Humanos;
  • Segurança;

Note que estes princípios fazem com que a IA seja usada de maneira ética e responsável, protegendo tanto os interesses dos usuários quanto os Direitos Fundamentais.

 

Como identificar riscos relacionados à IA?

Para identificar os riscos relacionados à implementação e ao uso de sistemas de IA em seus processos, é essencial que sua empresa considere os riscos éticos, legais, técnicos e de segurança, para então desenvolver estratégias eficazes de mitigação.

Primeiramente, é necessário alinhar a avaliação de riscos aos princípios éticos definidos internamente para o uso de IA. Isso significa identificar os potenciais impactos negativos que a IA pode gerar em operações, produtos, serviços e nas partes interessadas. Além disso, deve-se levar em conta os riscos técnicos, como falhas em algoritmos, desempenho insatisfatório, falta de transparência e vieses algorítmicos.

Outro ponto importante é a avaliação dos desafios relacionados à integração da IA com sistemas já existentes, considerando a escalabilidade, interoperabilidade e a segurança dos dados. Já do ponto de vista operacional, há que se avaliar o grau de dependência excessiva da IA, a falta de qualificação adequada para gerenciar essas tecnologias, as mudanças organizacionais necessárias e possíveis resistências internas.

Por fim, é necessário considerar os riscos de conformidade, como as obrigações legais e regulatórias que envolvem privacidade, proteção de dados, segurança da informação e direitos do consumidor, conforme aplicável ao setor de atuação da empresa.

Webinar do mês

Confira nossos conteúdos ao vivo!

Todo mês ensinamos ao novo gratuitamente, confira e se inscreva!

Nos webinars que você assistir ao vivo, há liberação de um certificado de participação ;)

Logo Q Academy Branco

Cursos online de
Sistemas de Gestão

Como ser auditor de sistemas de gestão ISO?

Cada vez mais profissionais buscam por como ser auditor de sistemas de gestão ISO. Afinal, esta é uma profissão extremamente prestigiada, muito valorizada e respeitada. Além de oferecer muitas chances de crescimento e desenvolvimento tanto pessoal como profissional.