ARACAJU/SE, 25 de novembro de 2024 , 20:39:00

logoajn1

Europa lidera corrida para regulamentar a inteligência artificial

 

A União Europeia deu um grande passo na quarta-feira (14) para estabelecer regras – as primeiras do mundo – sobre como as empresas podem usar a inteligência artificial.

É um movimento ousado que Bruxelas espera que abra caminho para padrões globais para uma tecnologia usada em tudo, desde chatbots como o ChatGPT da OpenAI até procedimentos cirúrgicos e detecção de fraudes em bancos.

“Fizemos história hoje”, disse Brando Benifei, membro do Parlamento Europeu que trabalha na Lei de inteligência artificial da UE, a jornalistas.

Os legisladores concordaram com uma versão preliminar da lei, que agora será negociada com o Conselho da União Europeia e os estados-membros antes de se tornar lei.

“Enquanto as grandes empresas de tecnologia estão soando o alarme sobre suas próprias criações, a Europa foi em frente e propôs uma resposta concreta aos riscos que a IA está começando a representar”, acrescentou Benifei.

Centenas dos principais cientistas e pesquisadores de inteligência artificial alertaram no mês passado que a tecnologia representava um risco de extinção para a humanidade, e várias figuras proeminentes – incluindo o presidente da Microsoft, Brad Smith, e o CEO da OpenAI, Sam Altman – pediram maior regulamentação.

No Yale CEO Summit esta semana, mais de 40% dos líderes empresariais, como o chefe do Walmart, Doug McMillion, e o CEO da Coca-Cola, James Quincy, disseram que a inteligência artificial tem o potencial de destruir a humanidade daqui a cinco a 10 anos.

Nesse contexto, a Lei de IA da UE procura “promover a adoção de inteligência artificial confiável e centrada no ser humano e garantir um alto nível de proteção da saúde, segurança, direitos fundamentais, democracia e estado de direito e meio ambiente contra efeitos nocivos”.

Aqui estão as principais conclusões.

Alto risco, baixo risco, proibido

Uma vez aprovada, a lei se aplicará a qualquer pessoa que desenvolva e implante sistemas de inteligência artificial na UE, incluindo empresas localizadas fora do bloco. A extensão da regulamentação depende dos riscos criados por um aplicativo específico, que pode ser de mínimo a “inaceitável”.

Os sistemas que se enquadram na última categoria são totalmente banidos. Isso inclui sistemas de reconhecimento facial em tempo real em espaços públicos, ferramentas preditivas de policiamento e sistemas de pontuação social, como os da China, que atribuem às pessoas uma “pontuação de saúde” com base em seu comportamento.

A legislação também estabelece restrições rígidas a aplicativos de inteligência artificial de “alto risco”, que são aqueles que ameaçam “danos significativos à saúde, segurança, direitos fundamentais ou meio ambiente das pessoas”.

Isso inclui sistemas usados para influenciar os eleitores em uma eleição, bem como plataformas de mídia social com mais de 45 milhões de usuários que recomendam conteúdo, uma lista que inclui Facebook, Twitter e Instagram. A lei também descreve os requisitos de transparência para sistemas de inteligência artificial.

Por exemplo, sistemas como o ChatGPT teriam que divulgar que seu conteúdo foi gerado por IA, distinguir imagens deepfake das reais e fornecer salvaguardas contra a geração de conteúdo ilegal.

Resumos detalhados dos dados protegidos por direitos autorais usados para treinar esses sistemas de inteligência artificial também teriam que ser publicados.

Os sistemas de IA com risco mínimo ou nenhum, como filtros de spam, estão fora das regras.

Penalidades pesadas

A maioria dos sistemas de IA provavelmente cairá nas categorias de alto risco ou proibidas, deixando seus proprietários expostos a multas potencialmente enormes se não cumprirem os regulamentos, de acordo com Racheal Muldoon, advogada (litigante) do escritório de advocacia Maitland Chambers de Londres.

O envolvimento em práticas proibidas de inteligência artificial pode levar a uma multa de até 40 milhões de euros (cerca de R$ 211 milhões) ou um valor equivalente a até 7% do faturamento anual mundial de uma empresa, o que for maior.

Isso vai muito além da lei de privacidade de dados de assinatura da Europa, o Regulamento Geral de Proteção de Dados, sob o qual a Meta foi multada em 1,2 bilhão de euros (cerca de R$ 6,34 bilhões) no mês passado. O RGPD estabelece multas de até 10 milhões de euros (cerca de R$ 52,8 milhões), ou até 2% do faturamento global de uma empresa.

As multas sob a lei de inteligência artificial servem como um “grito de guerra dos legisladores para dizer, ‘leve isso a sério’”, disse Muldoon.

Proteções para inovação

Ao mesmo tempo, as penalidades seriam “proporcionais” e levariam em consideração a posição de mercado dos fornecedores de pequena escala, sugerindo que poderia haver alguma clemência para as empresas iniciantes.

A lei também exige que os estados-membros da UE estabeleçam pelo menos uma “sandbox” regulatória para testar sistemas de inteligência artificial antes de serem implantados.

“A única coisa que queríamos alcançar com este texto é equilíbrio”, disse Dragoș Tudorache, membro do Parlamento Europeu. A lei protege os cidadãos ao mesmo tempo em que “promove a inovação, não prejudica a criatividade e a implantação e desenvolvimento da IA na Europa”, acrescentou.

A lei dá aos cidadãos o direito de registrar reclamações contra fornecedores de sistemas de inteligência artificial e prevê que um Escritório de IA da União Europeia monitore a aplicação da legislação. Também exige que os estados-membros designem autoridades supervisoras nacionais para IA.

Empresas respondem

A Microsoft – que, juntamente com o Google, está na vanguarda do desenvolvimento de IA globalmente – saudou o progresso da lei, mas disse que espera “maior refinamento”.

“Acreditamos que a inteligência artificial requer proteções legislativas, esforços de alinhamento em nível internacional e ações voluntárias significativas de empresas que desenvolvem e implantam IA”, disse um porta-voz da Microsoft em nota.

Enquanto isso, a IBM pediu aos formuladores de políticas da UE que adotassem uma “abordagem baseada em risco” e sugeriu quatro “melhorias importantes” para o projeto de lei, incluindo mais clareza sobre IA de alto risco “para que apenas casos de uso verdadeiramente de alto risco sejam capturados”.

A lei pode não entrar em vigor até 2026, de acordo com Muldoon, que disse que as revisões são prováveis, dada a rapidez com que a inteligência artificial está avançando. A legislação já passou por diversas atualizações desde o início da redação em 2021.

“A lei se expandirá em escopo à medida que a tecnologia se desenvolver”, disse Muldoon.

Fonte: CNN Brasil

Você pode querer ler também