Parlamento Europeu aprova primeira lei no mundo para regular inteligência artificial

Parlamento Europeu aprova primeira lei no mundo para regular inteligência artificial

Com 523 votos a favor, o Parlamento Europeu aprovou nesta quarta-feira (13) a primeira regulamentação de IA do mundo, o AI Act. Medida que visa definir regras para o uso de sistemas de inteligência artificial, como o ChatGPT, da OpenAI.

Apresentado em abril de 2021, o projeto de lei aprovado hoje contou com apenas 46 votos contrários, e 49 abstenções. O comissário europeu responsável pelo texto, Thierry Breton, comemorou em sua conta no X o apoio maciço do parlamento. Breton também declarou: regulamos o mínimo possível, mas tanto quanto necessário.

 

O parlamento europeu considera a aprovação deste texto uma referência global que pode servir como base para regulamentações em outros territórios. No Brasil, por exemplo, cerca de 46 projetos de lei buscam a regulamentação da IA, e podem avançar ainda este ano.

Assim como em discussões no Brasil, sobre como a regulamentação poderia ser aprovada por aqui, o parlamento europeu considera que a IA precisa estar centrada no ser humano. A aprovação do texto conseguiu entregar um equilíbrio muito tênue entre o interesse em inovar e o interesse em proteger, declarou o co-relator do projeto, Dragon Tudorache.

A regulamentação visa garantir proteção para os cidadãos, garantindo que os sistemas de IA utilizados no mercado europeu são seguros e respeitam os direitos das pessoas; assim como estimular o investimento e a inovação em inteligência artificial.

O PL 2338/23, proposto no Brasil para a regulamentação da IA, destaca que a legislação deve em dois níveis. Mesma característica da legislação europeia:

Os modelos de IA de uso geral serão obrigados a cumprir obrigações de transparência e com as regras europeias relacionadas com direitos autorais

O outro nível é chamado de “alto risco”, utilizados em áreas-chave, como educação, infraestrutura, aplicação da lei e recursos humanos. IAs utilizadas nesses segmentos estarão sujeitas a requisitos de aprovação ainda mais rigorosos. Quanto maior o risco, mais rígidas serão as regulamentações.

Uma questão basilar do texto é a definição do que é ou não IA; já que é a partir disso que a lei pode ser aplicada. O texto europeu é regido pela definição de inteligência artificial da OCDE (Organização para a Cooperação e o Desenvolvimento Econômico):

A OCDE define um sistema de IA como um sistema baseado em máquinas que, para um determinado conjunto de objetivos definidos pelo homem, faz previsões, recomendações ou decisões que influenciam ambientes reais ou virtuais.

O texto é bem claro sobre alguns pontos que são proibidos:

  • Sistemas de categorização biométrica baseados em características sensíveis: Estes sistemas podem ser utilizados para discriminar pessoas com base na raça, etnia, gênero, religião ou outros factores.
  • Extrapolação indiscriminada de imagens faciais da Internet ou de sistemas CCTV para criar bases de dados de reconhecimento facial: Tecnologia que pode ser usada para rastrear pessoas sem o seu consentimento e violar a sua privacidade.
  • Sistemas de reconhecimento de emoções no local de trabalho e nas escolas: Estes sistemas podem ser utilizados para monitorizar as pessoas e discriminá-las com base nas suas emoções.
  • Sistemas de crédito social: Estes sistemas podem ser usados ​​para controlar as pessoas e limitar a sua liberdade.
  • Práticas de policiamento preditivo baseadas na definição de perfis ou na avaliação das características de uma pessoa: Estas práticas podem ser utilizadas para discriminar pessoas e privá-las dos seus direitos.
  • Sistemas que manipulam o comportamento humano ou exploram as vulnerabilidades das pessoas: Estes sistemas podem ser usados ​​para prejudicar as pessoas e privá-las do seu livre arbítrio.

Portanto; o texto, segundo o parlamento, protege os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental dos sistemas de IA de alto risco”.

A lei também concede aos estados certas isenções relacionadas, por exemplo, com a identificação de pessoas. Isso seria permitido em missões de aplicação da lei; agindo para prever uma ameaça terrorista ou a busca seletiva de vítimas.

Os cidadãos também terão direito a apresentar reclamações sobre sistemas de IA e receber explicações sobre decisões de alto risco baseadas em IA que impactam seus direitos. As empresas que desenvolvem sistemas de IA terão de realizar avaliações de risco para identificar e mitigar quaisquer riscos sistêmicos. E conteúdos, como imagens e vídeos, gerados por IA terão que ser devidamente identificados.

Você também deve ler!

Mais de 50% das empresas brasileiras usam inteligência artificial

Especialistas em inteligência artificial defendem criação de um interruptor físico para desligar as IAs

A expectativa agora é que os 27 estados da UE aprovem o texto em abril, antes que a lei seja publicada no Diário Oficial da UE, em maio ou junho. A lei passará a valer após 20 dias da publicação no Diário Oficial e começará a ser aplicável 24 meses após a entrada em vigor.

O Observatório Multinacional (França), o Observatório Europeu de Negócios (Bélgica) e o Lobby Control (Alemanha) temem que os grupos de lobby enfraqueçam a implementação das regras em torno da IA.

“Muitos detalhes da lei permanecem abertos e precisam ser esclarecidos, disseram essas três entidades em um comunicado conjunto”.

Sobre o Autor

Editor-chefe no Hardware.com.br, aficionado por tecnologias que realmente funcionam. Segue lá no Insta: @plazawilliam Elogios, críticas e sugestões de pauta: william@hardware.com.br
Leia mais
Redes Sociais:

Deixe seu comentário

X