OpenAI desactiva su detector de inteligencia artificial

Uno de los guardianes más reconocidos en el mundo de la inteligencia artificial, OpenAI, ha apagado silenciosamente su herramienta AI Classifier, diseñada para detectar textos generados por IA. Según la compañía, la herramienta fallaba en tres de cada cuatro ocasiones, y en algunos casos, su tasa de éxito era aún peor. Pero, ¿qué significa esto para el futuro de la IA y cómo afectará a nuestra sociedad?

El desafío de detectar la IA

La razón detrás de este fracaso es tan antigua como la falsificación misma. Con el tiempo, las copias se han vuelto más perfectas y ahora el desafío es aún mayor: los detectores no se enfrentan a la obra de un humano, sino a un texto o una imagen que puede ser el resultado de millones de operaciones matemáticas realizadas por una inteligencia artificial.

Hasta que este problema se resuelva, los estudiantes podrán seguir presentando trabajos escritos por Chat GPT y sus profesores no podrán detectarlo a simple vista. Pero el problema va más allá. Muchos expertos advierten que este uso generalizado de los chatbots generativos puede llevar a problemas como la desinformación, el plagio e incluso poner en duda sistemas como el educativo o el judicial.

El corto viaje de AI Classifier

OpenAI lanzó primero ChatGPT y, meses después, lanzó AI Classifier en enero de 2023. Aunque la herramienta solo acertaba en un 26% de las ocasiones, OpenAI esperaba mejorarla con el tiempo. Sin embargo, las mejoras no llegaron y hace pocos días OpenAI decidió cerrarla discretamente, dejando en el aire la posibilidad de un relanzamiento.

¿Por qué los detectores no funcionan?

Los detectores de IA se entrenan para clasificar textos a partir de ejemplos. Se les proporciona una gran cantidad de textos generados tanto por humanos como por IA. Sin embargo, las IAs generativas están en constante evolución. Incluso si se entrena un detector que inicialmente sea capaz de identificar con cierta precisión, la IA seguirá evolucionando y el detector dejará de funcionar, porque ha sido entrenado con texto generado por IAs anteriores.

Además, la manipulación humana puede ser el factor más corrosivo a la hora de hallar pistas. Pequeñas modificaciones que pueden introducir los usuarios una vez generado el texto pueden despistar a los sistemas entrenados.

¿Qué se necesita para un buen detector?

Aunque OpenAI ha cerrado su detector, otros están trabajando en el desarrollo de detectores más fiables. Algunos investigadores académicos afirman haber desarrollado un modelo 99% exitoso, pero de nicho. Sin embargo, la mayoría de los expertos coinciden en que la impredictibilidad, la variabilidad creativa y las sorpresas en el texto son indicadores de la autoría humana.

Los sectores más afectados

La falta de detectores fiables de IA está llevando a un aumento de problemas como la desinformación, el plagio, la pérdida de originalidad y la asunción de sesgos como verdad. Además, la propiedad intelectual está en juego, ya que estos grandes modelos de IA han sido entrenados con una gran cantidad de información que, aunque es accesible públicamente, no significa que sea libre.

En resumen, la desactivación del detector de IA de OpenAI plantea interrogantes sobre el futuro de la detección de IA y las implicaciones para la sociedad. Con la regulación de la IA aún en sus primeras etapas, queda por ver cómo se abordarán estos desafíos en los próximos años.

Publicaciones Similares