Governança de Inteligência Artificial: o que é, e como funciona?

Governança de Inteligência Artificial: o que é, e como funciona?

O surgimento da inteligência artificial otimizou os fluxos de trabalho, mas os riscos e as responsabilidades das empresas aumentaram proporcionalmente aos benefícios do avanço tecnológico. Por esse motivo, a governança de IA é essencial para que os princípios éticos e a legislação sejam respeitados.

Essa preocupação já se reflete em ações de determinadas organizações, como é o caso do World Economic Fórum (WEF), que tem se destacado ao propor diretrizes para o uso responsável da IA nas organizações. Em suas publicações, o WEF sugere que as empresas implementem uma governança de IA orientada por riscos, alinhando a complexidade das medidas ao nível de impacto que a tecnologia pode causar.

Em outras palavras, a governança de IA exige uma perspectiva inovadora e adaptável, capaz de lidar com a complexidade e o impacto que essa tecnologia causa nas organizações. Neste artigo, vamos abordar como podemos estabelecer uma governança eficaz para a inteligência artificial. Acompanhe!

 

O que é governança de IA?

A governança de IA nada mais é do que a criação de políticas, processos e estruturas para que o seu uso seja responsável e seguro dentro das empresas. O objetivo primordial é promover transparência, explicabilidade e responsabilidade nas decisões algorítmicas, além de abordar questões como privacidade, segurança e conformidade jurídica. Desse modo, o programa de governança de IA envolve a definição de políticas claras, controle rigoroso dos dados, auditorias regulares e um compromisso com o respeito às normas, sobretudo dados pessoais e direitos autorais.

 

Legislação brasileira sobre governança de IA

Embora o Brasil ainda não tenha uma legislação única e ampla sobre IA, diversas normas e leis impactam a utilização da tecnologia. No entanto, há Projetos de Lei, como o Projeto de Lei nº 21/20 e o Projeto de Lei nº 2.338/2023, estão em discussão para centralizar a regulação da IA. A Estratégia Brasileira de Inteligência Artificial, publicada em 2021 pelo Ministério da Ciência, Tecnologia e Inovação, orienta o desenvolvimento de soluções em IA. Além disso, leis como o Marco Civil da Internet, a Lei Geral de Proteção de Dados Pessoais (LGPD) e o Código de Defesa do Consumidor já afetam diretamente o uso da IA no Brasil.

 

Governança de IA no cenário internacional

A regulamentação da IA tem se desenvolvido globalmente. Na União Europeia, a Comissão Europeia propôs um regulamento visando melhorar a confiança e a responsabilização no uso da IA, conhecido como “AI Act“, com previsão de publicação até o final de 2023. Nos Estados Unidos, não há uma legislação específica, mas existem normas setoriais como o “AI in Government Act of 2020” e a “Executive Order 13960”. Na China, diretrizes estão sendo elaboradas para promover o desenvolvimento ético da IA. Por fim, outros países, como Canadá, Austrália, Japão e Singapura, também estão formulando políticas de governança de IA, embora ainda não tenham regulamentações específicas.

 

Por que implementar a Governança de IA?

A implementação de políticas de governança de IA é uma tendência crescente entre empresas, desde as desenvolvedoras de tecnologia, até aquelas que a utilizam. A governança de IA pode ajudar as organizações a alcançar vários objetivos importantes, como garantir segurança jurídica, gerenciar riscos, proteger dados e privacidade, promover transparência e confiança, assegurar qualidade e desempenho dos sistemas, e melhorar a reputação e competitividade da empresa.

Por esse motivo, muitas empresas já estão avançando na criação de políticas e sistemas de governança para a IA. Vale destacar que não são apenas as grandes empresas de tecnologia ou aquelas que desenvolvem IA que estão adotando tais sistemas internos, mas também, e especialmente, as empresas que utilizam essas tecnologias. Afinal, assim como as fornecedoras de IA, as empresas que contratam essas soluções também enfrentam riscos éticos e regulatórios associados à tecnologia.

 

Como implementar a governança de IA?

Para estabelecer uma governança eficaz de IA, é essencial adotar um planejamento estruturado. Primeiramente, defina objetivos e princípios claros, avalie o contexto da empresa e identifique e avalie os riscos associados ao uso da IA. O primeiro passo é contar com uma equipe multidisciplinar para liderar a implementação para desenvolver políticas e diretrizes claras, e estabelecer os processos de tomada de decisão. Além disso, é importante também implementar mecanismos de monitoramento e auditoria, promover a capacitação da equipe e criar canais de comunicação para questões relacionadas à IA.

 

Quais são os princípios da governança de IA?

Os princípios orientadores para a governança de IA são:

  • Precisão dos algoritmos;
  • Auditabilidade;
  • Explicabilidade;
  • Equidade;
  • Alinhamento aos Direitos Humanos;
  • Segurança;

Note que estes princípios fazem com que a IA seja usada de maneira ética e responsável, protegendo tanto os interesses dos usuários quanto os Direitos Fundamentais.

 

Como identificar riscos relacionados à IA?

Para identificar os riscos relacionados à implementação e ao uso de sistemas de IA em seus processos, é essencial que sua empresa considere os riscos éticos, legais, técnicos e de segurança, para então desenvolver estratégias eficazes de mitigação.

Primeiramente, é necessário alinhar a avaliação de riscos aos princípios éticos definidos internamente para o uso de IA. Isso significa identificar os potenciais impactos negativos que a IA pode gerar em operações, produtos, serviços e nas partes interessadas. Além disso, deve-se levar em conta os riscos técnicos, como falhas em algoritmos, desempenho insatisfatório, falta de transparência e vieses algorítmicos.

Outro ponto importante é a avaliação dos desafios relacionados à integração da IA com sistemas já existentes, considerando a escalabilidade, interoperabilidade e a segurança dos dados. Já do ponto de vista operacional, há que se avaliar o grau de dependência excessiva da IA, a falta de qualificação adequada para gerenciar essas tecnologias, as mudanças organizacionais necessárias e possíveis resistências internas.

Por fim, é necessário considerar os riscos de conformidade, como as obrigações legais e regulatórias que envolvem privacidade, proteção de dados, segurança da informação e direitos do consumidor, conforme aplicável ao setor de atuação da empresa.

QMS Certification

A QMS Certification é um organismo de certificação internacional acreditado que atua especificamente com certificação de sistemas de gestão e treinamentos de normas aplicáveis.

Webinar do mês

Confira nossos conteúdos ao vivo!

Todo mês ensinamos ao novo gratuitamente, confira e se inscreva!

Nos webinars que você assistir ao vivo, há liberação de um certificado de participação ;)

Logo Q Academy Branco

Cursos online de
Sistemas de Gestão