Uma das medidas pode ser a inserção de marcas d'água em textos, imagens, áudios e vídeos
21/07/2023As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, nesta sexta-feira (21). O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia. As medidas podem incluir, por exemplo, a inserção de marcas d'água em textos, imagens, áudios e vídeos gerado por IA.
As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética. A medida é vista como uma vitória do governo Biden para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.
Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia. O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma "legislação abrangente" para avançar e garantir salvaguardas para a inteligência artificial.
O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo. O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.
Quer receber notícias da ACAERT? Assine a newsletter - Assine aqui e receba por e-mail
Sistema para 'marca d'água'
Como parte do esforço, as empresas se comprometeram a
desenvolver um sistema de "marca d'água" que deve ser usado em
diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos
gerados por IA, para que os usuários saibam quando a tecnologia foi usada.
Essa marca d'água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político. Não está claro como a marca d'água ficará evidente no compartilhamento das informações.
As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia não seja usada para discriminar grupos vulneráveis. Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.
Repórter: G1