O Parlamento Europeu adotou na quarta-feira (13/03) regras para regular sistemas de inteligência artificial (IA), como o ChatGPT. Esta é a primeira legislação sobre o assunto adotada no mundo.
O comissário europeu responsável pelo texto, Thierry Breton, celebrou, no X (ex-Twitter) o “apoio maciço” do Parlamento (523 votos a favor, 46 contra) ao texto que estabelece as “primeiras disposições coercitivas e completas no mundo para uma IA confiável”.
O projeto de lei foi apresentado pela Comissão Europeia em abril de 2021. O aparecimento, no final de 2022, do ChatGPT da startup californiana OpenAI, capaz de escrever ensaios, poemas ou traduções em poucos segundos, deu uma nova dimensão ao texto.
O sistema revelou o enorme potencial da IA, mas também os seus riscos. A divulgação de fotos ou vídeos falsos, mas muito realistas, alertou para o perigo de manipulação da opinião.
“Hoje é um dia histórico em nosso longo caminho para regulamentar a IA”, disse o co-relator do texto, Brando Benifei (Social-democratas), à imprensa na manhã de quarta-feira.
Com este texto, “conseguimos encontrar um equilíbrio muito tênue entre o interesse em inovar e o interesse em proteger”, acrescentou o co-relator Dragos Tudorache (Renew, centristas e liberais).
No entanto, esta legislação “é apenas o começo”, observou, sublinhando que a inteligência artificial continua a evoluir rapidamente.
“Teremos que estar muito atentos a esta evolução da tecnologia no futuro e estar preparados para responder aos novos desafios que dela poderão surgir”, alertou Tudorache.
Abordagem em dois níveis
A legislação prevê uma abordagem em dois níveis. Os modelos de IA de “uso geral” terão de cumprir as obrigações de transparência e com as regras europeias de direitos autorais.
Quanto aos sistemas considerados de “alto risco” – utilizados, por exemplo, em infraestruturas críticas, educação, recursos humanos, aplicação da lei – estarão sujeitos a requisitos mais rigorosos. Por exemplo, terão de prever o estabelecimento de uma análise de impacto obrigatória nos direitos fundamentais.
Imagens, textos ou vídeos gerados artificialmente (deep fakes) devem ser claramente identificados como tal.
O texto também proíbe a classificação de cidadãos ou os sistemas de vigilância em massa utilizados na China, ou mesmo a identificação biométrica remota de pessoas em locais públicos.
Neste último ponto, os Estados obtiveram, no entanto, isenções para certas missões de aplicação da lei, como a prevenção de uma ameaça terrorista ou a busca seletiva de vítimas.
A legislação europeia será dotada de meios de vigilância e sanções com a criação de um gabinete europeu de IA, dentro da Comissão Europeia. Pode aplicar multas que variam entre € 7,5 e 35 milhões (R$ 13,75 a 190 milhões), dependendo da infração e do tamanho da empresa.
“Regulamos o mínimo possível, mas tanto quanto necessário”, escreveu o comissário europeu Thierry Breton no X.
Regras pouco claras
Mas o mundo da tecnologia manifestou desconfiança. “Muitas destas novas regras permanecem pouco claras e podem retardar o desenvolvimento e a implantação de aplicações inovadoras”, disse Boniface de Champris, gestor para a Europa do CCIA, um lobby do setor.
Por seu lado, o Observatório Multinacional (França), o Observatório Europa Corporativa (Bélgica) e o LobbyControl (Alemanha) temem que os lobbies enfraqueçam a implementação das regras em torno da IA.
“Muitos detalhes da Lei da IA permanecem em aberto e precisam ser esclarecidos (…), por exemplo, no que diz respeito a normas, limiares ou obrigações de transparência. A composição do conselho consultivo da nova agência europeia para a IA também fica pouco clara”, alertaram em uma declaração conjunta.
Espera-se que os 27 estados da UE aprovem o texto em abril, antes que a lei seja publicada no Diário Oficial da UE, em maio ou junho.