No final de julho, a OpenAI, a empresa por trás do ChatGPT, tomou uma decisão importante: desativou seu “classificador de IA”, uma ferramenta que buscava diferenciar a escrita humana daquela feita por IA. A razão foi sua taxa de precisão insatisfatória. A empresa expressou seu plano de “desenvolver e implementar mecanismos que possibilitem aos usuários identificar o conteúdo gerado por IA”, mas as especificidades desses mecanismos permanecem em segredo.
A própria OpenAI reconheceu que a ferramenta tinha limitações, ocasionalmente apontando textos humanos como produzidos por IA. Desde a entrada em cena do ChatGPT, que se tornou um dos aplicativos de crescimento mais rápido, vários setores alertaram para os riscos associados ao conteúdo gerado por IA. Educadores, por exemplo, expressaram preocupação de que os alunos pudessem utilizar o ChatGPT para realizar suas tarefas escolares.
A disseminação de desinformação via IA também está em foco, com pesquisas indicando que textos gerados por IA, como tweets, podem ser mais persuasivos do que os escritos por seres humanos. Os governos ainda não encontraram uma maneira eficaz de controlar a IA e, até o momento, têm delegado a grupos e organizações individuais a tarefa de estabelecer regras e medidas de proteção.
Neste cenário, fica claro que, mesmo a empresa que desempenhou um papel fundamental na popularização da IA generativa, não possui todas as respostas para lidar com essas complexidades. O futuro do equilíbrio entre IA e autenticidade textual ainda está por ser definido.