De acordo com o fiador italiano, ChatGPT viola regulamentos de privacidade

O garante de privacidade italiano confirmou que ChatGPT viola as regras de privacidade e uso de dados pessoais . O anúncio foi publicado na página oficial do fiador e relançado pela agência de notícias Reuters. A resposta foi divulgada após a conclusão das verificações efetuadas no ChatGPT pela Fiadora, iniciadas em março de 2023. No entanto, até à data a Fiadora não divulgou quaisquer documentos oficiais a este respeito, pelo que não são conhecidos mais detalhes sobre as alegadas violações. contra ChatGPT.

ChatGPT viola políticas de privacidade

O Fiador da Privacidade afirmou em comunicado que os resultados das suas investigações confirmam que a aplicação ChatGPT viola os regulamentos europeus de privacidade, em particular no que diz respeito ao tratamento de dados pessoais. ChatGPT é uma plataforma baseada em inteligência artificial (IA) , capaz de gerar textos complexos, tirar dúvidas , desenvolver códigos de programação e realizar diversas outras funções. O aplicativo é desenvolvido pela empresa americana OpenIA, que faz parte do grupo Microsoft. O Fiador, em referência ao pedido, informou em seu site oficial que:

“Na sequência da disposição de limitação temporária do tratamento, adotada pelo Fiador perante a Empresa no passado dia 30 de março, e na sequência do resultado da investigação realizada, a Autoridade considerou que os elementos adquiridos poderiam constituir uma ou mais infrações relativamente ao estabelecido por o Regulamento da UE.”

O comunicado destaca que as investigações sobre possíveis violações das regras europeias de privacidade começaram entre março e abril de 2023 , depois de o Fiador ter implementado uma disposição que limitava temporariamente a utilização do ChatGPT em Itália, devido a possíveis violações da proteção dos dados privados dos utilizadores.

ChatGPT presidente do Fiador
Pasquale Stanzione, presidente do Fiador de Proteção de Dados Pessoais (GPDP). Fonte GPDP.

A luta entre Itália e OpenIA continua

A Itália foi o primeiro país da Europa Ocidental a bloquear o ChatGPT , plataforma baseada em IA da OpenIA, no final de março de 2023. Nessa ocasião, o Fiador de Privacidade limitou temporariamente o uso do ChatGPT , pois se constatou que em março de 2023 "o aplicativo tinha sofreu perda de dados (violação de dados) relativos a conversas de usuários e informações relativas ao pagamento de assinantes do serviço pago".

Além disso, o Fiador sublinhou que a base da aplicação se caracterizava pela “ falta de informação aos utilizadores e a todos os interessados ​​cujos dados são recolhidos pela OpenAI, mas sobretudo pela ausência de uma base jurídica que justifique a recolha e conservação massiva de dados pessoais , com o objetivo de “treinar” os algoritmos subjacentes ao funcionamento da plataforma”, Após a prestação, o Fiador deu à OpenIA trinta dias para adaptar os procedimentos de recolha de dados do ChatGPT à regulamentação europeia. A aplicação voltou a estar ativa no final de abril de 2023, após a OpenIA ter apresentado as alterações e adaptações solicitadas pelo Fiador.

O bloqueio de março de 2023 desencadeou uma investigação conduzida pelo Fiador, com o objetivo de estabelecer se e como o ChatGPT viola as leis de privacidade adotadas na União Europeia. Com esta última resposta, a disputa entre a Itália e a OpenIA continua sobre o tema da proteção de dados pessoais em aplicações que utilizam IA.

Bate-papo de computadorGPT

A reação da OpenIA

Na declaração, que afirma que o ChatGPT viola as regulamentações de privacidade, a OpenIA tem 30 dias para apresentar seus argumentos de defesa ao fiador italiano . Além disso, o Fiador especifica que também terá em conta as avaliações e sugestões do Grupo de Trabalho criado pelo Comité Europeu para a Proteção de Dados (EDPB) para avaliar a proteção de dados pessoais em relação à utilização de inteligência artificial.

A agência de notícias Reuters pediu resposta à empresa OpenIA sobre o assunto, que até o momento ainda não divulgou comunicado .

Leis europeias sobre privacidade e inteligência artificial

O bloqueio do ChatGPT em março de 2023 foi ordenado pelo Fiador Italiano com base na lei europeia de proteção da privacidade, denominada Regulamento Geral de Proteção de Dados (RGPD), em vigor desde 2018. Esta lei estabelece que qualquer empresa responsável por violações das regras sobre a proteção da privacidade pode ser multada em até 4% do seu faturamento total .

Em dezembro de 2023, os países da União Europeia chegaram a um acordo sobre um novo regulamento para regular a aplicação e desenvolvimento da inteligência artificial , que define as regras e limites de utilização desta nova tecnologia. Esta legislação deverá ser aprovada no início de 2024, e depois aplicada a partir de 2026.

O artigo Segundo o fiador italiano, ChatGPT viola as normas de privacidade foi escrito em: Tech CuE | Engenharia de perto .