- O Problema das Alucinações:
- O ChatGPT, desenvolvido pela OpenAI, é acusado de gerar respostas imprecisas e inventar informações sobre indivíduos.
- A IA generativa, como o ChatGPT, funciona com base em modelos preditivos de associação de palavras, o que pode levar a respostas incorretas.
- A noyb argumenta que, embora pequenas imprecisões possam ser toleráveis, informações falsas sobre pessoas são inaceitáveis.
- Legislação e Direitos dos Indivíduos:
- O Regulamento Geral sobre a Proteção de Dados da União Europeia (GDPR) permite que as pessoas solicitem correções em informações imprecisas geradas por IA.
- Os indivíduos têm direito à retificação de dados pessoais, incluindo a exclusão de informações falsas.
- Responsabilidade da OpenAI
- A noyb pede que a Autoridade Austríaca de Proteção de Dados investigue o processamento de dados da OpenAI.
- A organização exige que a empresa tome medidas para garantir a precisão dos dados pessoais processados pelos grandes modelos de linguagem.
- Possíveis Penalidades:
- O não cumprimento das regras do GDPR pode resultar em multas significativas.
- A noyb busca que a autoridade imponha penalidades à OpenAI para garantir o cumprimento da lei.
- Posição da OpenAI:
- A OpenAI ainda não se pronunciou sobre a queixa e o pedido de investigação.
Resumo
Em resumo, a questão das alucinações e informações falsas geradas pelo ChatGPT levanta preocupações legítimas sobre a precisão e a responsabilidade das IAs. Além disso, a noyb busca garantir que os direitos dos indivíduos sejam protegidos, mesmo no contexto da inteligência artificial. Acompanharemos o desdobramento dessa investigação.
obs.: quem vos escreve agora, já constatou o ChatGPT falando mal da Margaret Thatcher e falando bem da MC Pipokinha. Ou seja: muita alucinação, além de viés político, ideológico e partidário.