A OpenAI alega que o jornal The New York Times pagou a alguém para “hackear” o ChatGPT.
A confusão começou em dezembro de 2023, quando o New York Times processou a OpenAI e sua investidora, a Microsoft, alegando que elas copiaram o conteúdo de seus artigos para treinar o chatbot, sem a devida permissão.
Como prova, o jornal apresentou trechos de algumas reportagens do NYT supostamente reproduzidas pelo ChatGPT em resposta a solicitações específicas dos usuários.
O New York Times teme que as pessoas possam driblar o paywall do jornal e ler gratuitamente o conteúdo pago simplesmente pedindo ao ChatGPT para gerar trechos das matérias. A OpenAI, no entanto, nega veementemente essas acusações e pede o arquivamento do processo.
A empresa argumenta que o jornal distorceu a realidade ao alegar que o ChatGPT é capaz de replicar facilmente artigos inteiros “hackeando” o sistema.
Segundo a OpenAI, as alegações do NYT se baseiam em “esforços prolongados e extensivos para hackear seus modelos” e que, na realidade, ninguém, exceto os engenheiros do jornal, conseguiram driblar as proteções do ChatGPT para obter tais resultados.
A OpenAI ainda contra-ataca, alegando que “o Times pagou a alguém para hackear seus produtos… Eles só conseguiram fazer isso explorando uma vulnerabilidade (que a OpenAI se comprometeu a corrigir) usando solicitações enganosas que violam explicitamente os termos de uso da OpenAI.”
A empresa afirma que foram necessárias dezenas de milhares de tentativas para o ChatGPT replicar trechos literais do jornal.
O advogado do New York Times, Ian Crosby, refuta as acusações e afirma que “o que a OpenAI chama erroneamente de ‘hacking’ é simplesmente usar seus produtos para buscar evidências de que eles roubaram e reproduziram obras protegidas por direitos autorais do Times“.
Crosby ainda alega que a escala da cópia é bem maior do que os 100 exemplos citados no processo.