Posts Recentes:

O problema de ‘alucinação’ do ChatGPT foi atingido por outra reclamação de privacidade na UE


A OpenAI enfrenta outra reclamação de privacidade na União Europeia. Este, que foi arquivado por uma organização sem fins lucrativos de direitos de privacidade noyb em nome de um reclamante individual, visa a incapacidade de seu chatbot de IA ChatGPT de corrigir a desinformação que gera sobre os indivíduos.

A tendência das ferramentas GenAI de produzir informações totalmente erradas foi bem documentada. Mas também coloca a tecnologia em rota de colisão com o Regulamento Geral de Proteção de Dados (RGPD) do bloco – que rege a forma como os dados pessoais dos utilizadores regionais podem ser processados.

As penalidades por falhas de conformidade com o GDPR podem atingir até 4% do faturamento anual global. Mais importante ainda para um gigante rico em recursos como a OpenAI: os reguladores da proteção de dados podem ordenar alterações na forma como a informação é processada, para que a aplicação do GDPR possa remodelar a forma como as ferramentas generativas de IA são capazes de operar na UE.

A OpenAI já foi forçada a fazer algumas mudanças após uma intervenção precoce da autoridade de proteção de dados da Itália, que forçou brevemente o encerramento local do ChatGPT de volta em 2023.

Agora, noyb está registrando a última reclamação do GDPR contra o ChatGPT junto à autoridade austríaca de proteção de dados em nome de um reclamante não identificado (descrito como uma “figura pública”) que descobriu que o chatbot de IA produziu uma data de nascimento incorreta para eles.

Ao abrigo do RGPD, as pessoas na UE têm um conjunto de direitos associados às informações sobre elas, incluindo o direito de corrigir dados errados. noyb afirma que a OpenAI não está cumprindo esta obrigação em relação à produção de seu chatbot. Afirmou que a empresa recusou o pedido do reclamante para retificar a data de nascimento incorreta, respondendo que era tecnicamente impossível corrigi-la.

Em vez disso, ofereceu-se para filtrar ou bloquear os dados em determinadas solicitações, como o nome do reclamante.

OpenAI's política de Privacidade afirma que os usuários que perceberem que o chatbot AI gerou “informações factualmente imprecisas sobre você” podem enviar uma “solicitação de correção” por meio de privacidade.openai.com ou enviando um e-mail dsar@openai.com. No entanto, ele ressalva a linha ao alertar: “Dada a complexidade técnica de como nossos modelos funcionam, talvez não consigamos corrigir a imprecisão em todos os casos”.

Nesse caso, a OpenAI sugere que os usuários solicitem que suas informações pessoais sejam totalmente removidas da saída do ChatGPT – preenchendo um formulário web.

O problema para o gigante da IA ​​é que os direitos do GDPR não são à la carte. As pessoas na Europa têm o direito de solicitar a retificação. Eles também têm o direito de solicitar a exclusão de seus dados. Mas, como aponta noyb, não cabe à OpenAI escolher quais desses direitos estão disponíveis.

Outros elementos da reclamação centram-se nas preocupações de transparência do GDPR, com noyb alegando que a OpenAI é incapaz de dizer de onde vêm os dados que gera sobre os indivíduos, nem quais dados o chatbot armazena sobre as pessoas.

Isto é importante porque, mais uma vez, o regulamento dá aos indivíduos o direito de solicitar tais informações, fazendo o chamado pedido de acesso ao assunto (SAR). Segundo informações, a OpenAI não respondeu adequadamente ao SAR do reclamante, deixando de divulgar qualquer informação sobre os dados processados, suas fontes ou destinatários.

Comentando a reclamação em comunicado, Maartje de Graaf, advogado de proteção de dados da noyb, disse: “Inventar informações falsas é bastante problemático por si só. Mas quando se trata de informações falsas sobre indivíduos, pode haver consequências graves. É claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da UE, ao processar dados sobre indivíduos. Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário.”

A empresa disse que está pedindo à DPA austríaca que investigue a reclamação sobre o processamento de dados da OpenAI, bem como que imponha uma multa para garantir a conformidade futura. Mas acrescentou que é “provável” que o caso seja resolvido através da cooperação da UE.

A OpenAI enfrenta uma reclamação muito semelhante na Polónia. Durar Setembro, a autoridade local de proteção de dados abriu uma investigação do ChatGPT após o reclamação por um pesquisador de privacidade e segurança que também descobriu que não era possível corrigir informações incorretas sobre ele pela OpenAI. Essa reclamação também acusa o gigante da IA ​​de não cumprir os requisitos de transparência do regulamento.

A autoridade italiana de proteção de dados, entretanto, ainda tem uma investigação aberta sobre o ChatGPT. Em Janeiro produziu um projeto de decisão, dizendo então que acredita que a OpenAI violou o GDPR de várias maneiras, inclusive em relação à tendência do chatbot de produzir informações erradas sobre as pessoas. As conclusões também dizem respeito a outras questões cruciais, como a legalidade do processamento.

A autoridade italiana deu à OpenAI um mês para responder às suas conclusões. Uma decisão final permanece pendente.

Agora, com outra reclamação do GDPR dirigida ao seu chatbot, aumentou o risco de a OpenAI enfrentar uma série de aplicações do GDPR em diferentes Estados-Membros.

Último outono a empresa abriu um escritório regional em Dublin – em um movimento que parece ter a intenção de reduzir seu risco regulatório ao ter reclamações de privacidade canalizadas pela Comissão de Proteção de Dados da Irlanda, graças a um mecanismo no GDPR que visa agilizar a supervisão de reclamações transfronteiriças por meio de canalização transferi-los para uma única autoridade do estado membro onde a empresa está “principalmente estabelecida”.

Últimas

Assine

spot_img

Veja Também

spot_img

O satélite de inspeção de lixo espacial da Astroscale tira uma foto em close de um estágio de foguete descartado

Astroescala O satélite de observação de lixo espacial aproximou-se do estágio superior de um foguete descartado que está flutuando ao redor da Terra...

Snap visualiza seu modelo de imagem em tempo real que pode gerar experiências de AR

Na Augmented World Expo na terça-feira, o Snap apresentou uma versão inicial de seu modelo de difusão de imagens em tempo real no...