Apenas 28% das empresas estão prontas para regulação da IA

Levantamento é do Boston Consulting Group (BCG

21/06/2023


Apesar de ainda não ser regulado, o uso da inteligência artificial nas empresas tem crescido de forma exponencial. Diante desse avanço, o Boston Consulting Group (BCG) desenvolveu um estudo e encontrou um cenário limitado no que diz respeito à preparação dos negócios para essa nova fase da tecnologia: apenas 28% dos 2,7 mil líderes globais entrevistados afirmam estar totalmente prontos para a regulação que está por vir.

De acordo com a análise do BCG, a melhor forma do mercado se preparar para o futuro da IA é por meio do desenvolvimento de um programa de Inteligência Artificial Responsável (ou RAI, na sigla em inglês).

Essa iniciativa tem como objetivo garantir o uso ético da tecnologia, considerando seus impactos nos negócios e nas pessoas, além de facilitar a governança dos sistemas. Um RAI deve ter foco em um conjunto de princípios, como responsabilidade, transparência, privacidade e segurança. Assim, há uma diretriz clara para que os algoritmos sejam desenvolvidos e implementados de forma equitativa e inclusiva. Essa é uma estrutura benéfica tanto para criadores quanto para usuários de inteligência artificial, e ajudará ambos a estarem prontos para qualquer regulação que surgir no futuro.

“Um programa de IA responsável deve ser visto como um mecanismo de inovação, que aprimora o desempenho e estabelece ciclos de melhorias e de revisão, que ajudam a prevenir falhas ao levantar preocupações que envolvem a tecnologia. Empresas que compreenderem esse conceito e tratarem as regulações como oportunidades ao invés de obstáculos, podem se destacar no mercado”, afirma Henrique Sinatura, diretor executivo e sócio do BCG.

O artigo também aponta que os negócios com maior maturidade digital são mais propícios a desenvolverem um programa de RAI, e que a iniciativa leva cerca de três anos para fazer um progresso significativo, por isso, exige esforço e comprometimento. Essa dedicação traz vantagens: o programa ajuda as empresas a dimensionar seus investimentos em IA, a identificar e corrigir problemas de forma antecipada e a aumentar a adoção da tecnologia por clientes e colaboradores, ao mesmo tempo em que minimiza falhas.

“Nossa pesquisa mostrou que companhias mais maduras digitalmente têm quase seis vezes mais chances de estarem preparadas para a regulação da IA. Notamos também que os setores de Telecomunicações, Tecnologia e Consumo estão na frente dos demais em termos de preparação, mostrando que a ferramenta pode colaborar, e muito, com o relacionamento e a jornada do consumidor”, aponta Sinatura.

De forma geral, o BCG conclui que existem cinco princípios em comum nas empresas que desenvolveram um programa de IA responsável e bem-sucedido. São eles:

Liderança de RAI empoderada

Os líderes de um projeto de RAI precisam desempenhar um papel crítico de manter as iniciativas no caminho certo. Para terem sucesso, precisam ser colaborativos e contar com uma equipe multifuncional, representando diferentes unidades e departamentos. Relacionamentos são essenciais para implementar esses programas em toda a organização. 

Construção e fomento de uma estrutura ética de IA

No centro da RAI, está um conjunto de princípios que devem ser incorporados à cultura e às políticas da empresa. Isso estabelece uma base que faz com que seja mais fácil a empresa se adaptar caso surja uma regulação específica, pois ela já pratica esses princípios. Assim, mitiga o risco de prejudicar metas e investimentos.

Humanos na IA

A regulação da IA praticada atualmente e todas que estão sendo propostas exigem uma forte governança humana, o que se alinha com um princípio central da RAI: envolvimento humano em processos e plataformas de inteligência artificial. A pesquisa aponta que quase dois terços dos respondentes acredita que é importante projetar sistemas de IA que aumentam a capacidade humana, e não a sua substituição, e eles já estão aplicando esse princípio.

Quer receber notícias da ACAERT? Assine a newsletter - Assine aqui e receba por e-mail

Ferramentas e métodos para revisão

A IA responsável abrange o ciclo de vida de um sistema de inteligência artificial, e a sua meta é detectar e resolver problemas o quanto antes, além de manter a atenção aos riscos durante e após o seu lançamento. O primeiro passo para isso é garantir a revisão constante de que os princípios básicos do RAI, como transparência e inclusão, estejam integrados nos processos para construir e trabalhar com algoritmos. Para as organizações, a grande vantagem de se investir nesse monitoramento está na possibilidade de ter mais credibilidade diante de governos e clientes.

Participação do ecossistema de RAI

Na pesquisa do BCG, foi apontado que quase 90% das empresas contribui ativamente para um grupo de trabalho de Inteligência Artificial Responsável. Essa é uma estratégia válida que promove a colaboração e o compartilhamento de informações, o que pode ajudar a direcionar o desenvolvimento das melhores práticas nos projetos. Além disso, o ecossistema RAI é vasto e está crescendo rapidamente, tornando-se um lugar para encontrar parceiros, clientes, organizações e fóruns que podem auxiliar no desenvolvimento de casos de uso de IA.

“Usar a inteligência artificial com responsabilidade é, de certa forma, criar valor com ela. A incerteza que temos sobre o escopo dos regulamentos que estão por vir não pode ser um fator para impedir o desenvolvimento de um programa de uso da tecnologia de forma responsável. Quem começar agora a trabalhar na RAI conseguirá ajudar a moldar o futuro da IA”, finaliza Sinatura.

Repórter: ADNews

Inteligência Artificial
Últimas notícias