chatgpt

Opinión

ChatGPT Fabrica Información Falsa: Un Peligro para Todos los Sectores, No Sólo el Periodismo

Por Javier Hasse

ChatGPT Fabrica Información Falsa: Un Peligro para Todos los Sectores, No Sólo el Periodismo

✍ 12 June, 2023 - 11:11

La rápida evolución del panorama digital está salpicada de notables innovaciones en inteligencia artificial (IA). Sin embargo, estos avances conllevan sus propios retos.

Uno de ellos, que capta cada vez más la atención de sectores que van desde el académico hasta el periodístico, es la fabricación de información falsa por parte de la IA, en concreto ChatGPT de OpenAI, que recientemente cerró un acuerdo de inversión plurianual de USD 10.000 millones con Microsoft Corp (NASDAQ:MSFT).

De la experiencia personal a la confirmación académica

He experimentado personalmente este problema en múltiples ocasiones.

Contenido relacionado: El Lado Oscuro de ChatGPT: Cómo Facilita Fraudes, Desinformación y Delitos

Para comprobarlo, me lancé a la búsqueda de la verdad. Le pedí a ChatGPT que recuperara citas de una persona concreta, y que proporcione meticulosamente información precisa. Para mi sorpresa, me ofreció respuestas plausibles, con el estilo del orador, pero no eran citas auténticas.

Incluso cuando disponía de abundante contexto y de instrucciones explícitas de no fabricar citas, ChatGPT seguía inventando comentarios. Empaquetaba estas citas falsas como si la persona en cuestión las hubiera pronunciado textualmente, atribuyéndoselas y entrecomillándolas.

Esta práctica representa una tergiversación flagrante, ya que la fuente nunca pronunció esas palabras. A pesar de mis instrucciones, ChatGPT siguió inventando citas que el entrevistado nunca dijo, incluso después de proporcionarle una transcripción de las preguntas y respuestas.

Aunque el proceso se llevó a cabo con cuidado para mantener la máxima fidelidad a la información facilitada, estas anomalías subrayaron la necesidad de una rigurosa comprobación de los hechos.

La investigación sobre las inexactitudes de ChatGPT

Esta creciente preocupación quedó patente en el estudio High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content, realizado por Mehul Bhattacharyya, Valerie M. Miller, Debjani Bhattacharyya y Larry E. Miller.

Mediante un análisis de 30 artículos médicos generados por ChatGPT-3.5, cada uno de los cuales contenía al menos tres referencias, lzs investigadores descubrieron resultados sorprendentes: de las 115 referencias generadas por la IA, el 47% era completamente inventado, el 46% era auténtico pero utilizado de forma inexacta y sólo el 7% eran auténtico y exacto.

Contenido relacionado: Los Verdaderos Riesgos de la Inteligencia Artificial: Imágenes Falsas que se Tornan Virales

Los resultados reflejan la preocupación general de que ChatGPT no sólo es capaz de crear citas falsas, sino también artículos completos y titulares que nunca existieron. Esta propensión, conocida como “alucinación”, se considera ahora una amenaza significativa para la integridad de la información en muchos campos.

El Planteo se puso en contacto con OpenAI para recabar sus comentarios. Aunque nadie en la empresa estaba disponible para responder, el equipo señaló a El Planteo una nueva entrada de blog y un documento de investigación que aborda algunas de estas cuestiones.

Las alucinaciones de Chat GPT: ¿Por qué da información falsa?

Las repercusiones de este fenómeno son especialmente graves en el sector periodístico. Cada vez son más los casos de periodistas cuyos nombres se atribuyen falsamente a artículos o fuentes inexistentes.

Una de las víctimas de esta tendencia fue la autora e investigadora sobre IA, Kate Crawford, cuyo nombre se relacionó de forma inexacta con críticas al locutor Lex Fridman. Además, la capacidad de ChatGPT para inventar referencias de estudios de investigación completamente inexistentes aumenta el riesgo de propagar desinformación, lo que en última instancia socava la credibilidad de las fuentes de noticias legítimas.

Esto ha ocurrido muchas otras veces. Por ejemplo:

  • The Guardian informó que ChatGPT creó artículos y titulares enteros que en realidad nunca publicó. Esto se ha señalado como un preocupante efecto secundario de la democratización de la tecnología que no puede distinguir de forma fiable la verdad de la ficción.
  • Periodistas de USA Today descubrieron que ChatGPT generó citas de estudios de investigación completamente inexistentes sobre cómo el acceso a las armas no aumenta el riesgo de mortalidad infantil.
  • Noah Smith compartió un tuit en el que mostraba cómo había pedido a ChatGPT que escribiera un argumento contra las tablas salariales al estilo del economista Arin Dube. La IA inventó por completo la cita, y también caracterizó erróneamente la postura de Dube, que es, en realidad, un defensor de las tablas salariales. La IA también citó como fuente un artículo inexistente.

Contenido relacionado: ChatGPT: ¿Hasta Dónde Llegará el Impacto Social de la IA?

Riesgos y repercusiones de ChatGPT: información falsa

Aunque la IA cuanta con algunas proezas, los últimos acontecimientos han proyectado una sombra oscura sobre su posible uso indebido. En el centro de la tormenta se encuentra una vez más el ChatGPT de OpenAI, que se ha descontrolado en el campo del derecho, planteando dilemas imprevistos y enigmas legales.

Este caos inducido por la IA se desencadenó en torno al caso de Mata contra Avianca, cuando el abogado de Mata empleó ChatGPT para encontrar decisiones judiciales anteriores pertinentes al caso. Lo que parecía una aplicación innovadora de la IA se convirtió en una extraña secuencia de acontecimientos, con ChatGPT fabricando casos inexistentes.

En respuesta a las preguntas sobre la validez de estos casos, ChatGPT fue un paso más adelante. Inventó elaborados detalles de los casos inventados, que luego presentó como capturas de pantalla en los expedientes judiciales.

Los abogados incluso pidieron la “confirmación” de IA de los casos inventados, presentándola como parte de su argumentación jurídica. Un giro incrédulo que, en palabras de la abogada Kathryn Tewson, exige atención: “¿Has visto los ‘casos’? TIENES que ver los casos”.

El mes que viene se celebrará una audiencia en la que se debatirán posibles sanciones a lxs abogados, lo que podría poner en peligro sus medios de vida y su reputación. Este incidente recuerda otro reciente en el que un juez indio se enfrentó a la cuestión de conceder la libertad bajo fianza a un sospechoso de asesinato que pidió asesoramiento jurídico a ChatGPT.

Contenido relacionado: Confirmado: Se Puede Hackear ChatGPT para que Insulte y Difunda Conspiranoias

Para subrayar la gravedad del asunto, un usuario de Reddit compartió su preocupación por la fe ciega de la gente en las capacidades de la IA, incluso en áreas sensibles como la medicina o la abogacía.

El lanzamiento de la última versión de ChatGPT, ChatGPT-4, ha suscitado respuestas de todo tipo. Por un lado, este modelo de IA, capaz de obtener una puntuación del 90% en el examen de abogacía de EEUU y una puntuación perfecta en las pruebas matemáticas SAT, supone un salto en el desarrollo de la IA. Por otro, ChatGPT suscita preocupación por los riesgos de uso indebido y el potencial de información falsa y ciberataques a gran escala.

Elon Musk y Sam Altman, CEO de OpenAI, se han manifestado sobre la necesidad de regular la IA.

“Creo que la sociedad dispone de un tiempo limitado para averiguar cómo reaccionar ante esto, cómo regularlo y cómo manejarlo”, ha dicho Altman.

A Altman le preocupan especialmente los usos malintencionados de ChatGPT; dado que puede escribir código informático, GPT-4 puede utilizarse para información falsa a gran escala y los ciberataques ofensivos, dijo.

Altman también ha abordado la cuestión de la “alucinación“. “Lo que más intento advertir a la gente es lo que llamamos el ‘problema de las alucinaciones'”, dijo Altman en una entrevista con ABC News. “El modelo afirmará con seguridad cosas como si fueran hechos (pero) son totalmente inventadas”.

Musk, cofundador de OpenAI que recientemente dijo haber invertido aproximadamente USD 50 millones en la empresa, ha expresado anteriormente su preocupación por la IA. Es notable ya que Musk es el CEO de otra compañía, Tesla (NASDAQ:TSLA), que está invirtiendo agresivamente en IA. El fabricante de automóviles adoptó su sistema de procesamiento del lenguaje natural (NLP) de OpenAI, que se utiliza para manejar el asistente virtual de los vehículos de Tesla.

Contenido relacionado: Empresarios Encabezados por Elon Musk Piden Pausar los Experimentos de Inteligencia Artificial, ¿Por Qué?

La tecnología de IA también se emplea para mejorar el rendimiento de los vehículos autónomos de Tesla, mejorando su capacidad para comprender y responder a su entorno. Suponiendo que el empuje de Tesla hacia la IA esté sujeto a algunos de los mismos riesgos (alucinaciones) que otras soluciones de IA generativa, es una perspectiva interesante dado el potencial de vehículos autónomos asistidos por IA con poca o ninguna intervención humana en las carreteras de forma masiva.

Los informes de 2023 sugieren una posible colaboración entre Tesla y OpenAI que podría reforzar aún más las operaciones de IA de Tesla. Sin embargo, esto también podría amplificar los riesgos potenciales si no se aborda eficazmente el problema de la alucinación de la IA.

Otros líderes tecnológicos, como Sundar Pichai, Ginni Rometty, Marc Benioff y Satya Nadella, también han expresado su preocupación por el potencial negativo de la IA, lo que se suma al creciente clamor por la regulación y la supervisión.

No cabe duda de que la IA es el futuro, al menos en lo que respecta a la idea de que puede resolver obstáculos administrativos y aumentar la productividad. A medida que nos adentramos en esta nueva era, estos incidentes nos recuerdan con crudeza los retos y responsabilidades que conlleva el poder de la IA. Equilibrar las promesas y los peligros de la IA es una tarea que exige nuestra máxima atención, vigilancia y discernimiento.

Comprensión de las ‘alucinaciones’ y posibles soluciones

OpenAI está perfeccionando activamente sus modelos para mitigar los problemas de ‘alucinación’ y está explorando formas de permitir a lxs usuarios personalizar el comportamiento de ChatGPT, al mismo tiempo que establece salvaguardias para evitar el uso indebido. Estrategias como entrenar a la IA en un conjunto de datos más limitado y controlado podrían reducir los casos de ‘alucinaciones’, aunque con el riesgo de limitar la creatividad y la amplitud de conocimientos de la IA.

Contenido relacionado: Alertan del Posible Uso de ChatGPT para Perfeccionar las Estafas Online

Otras posibles soluciones podrían ser mejorar la interfaz de usuario, indicar secciones del texto generado con distintos niveles de confianza e integrar bases de datos externas. Sin embargo, estas soluciones conllevan sus propios retos, como la privacidad de los datos y la viabilidad tecnológica de integrar grandes cantidades de datos externos.

A medida que nos adentramos en la era de la IA, el reto consiste en aprovechar sus extraordinarias capacidades de generación de texto y, al mismo tiempo, mitigar el riesgo de información falsa. Navegar por este intrincado equilibrio exige una firme dedicación a la verdad y la precisión, junto con la voluntad de adaptarse y evolucionar en medio del acelerado panorama de la inteligencia artificial.

Vía Benzinga, traducido por El Planteo

Más contenido de El Planteo:

¿Tienes ideas o comentarios? Puedes contactarnos en info@elplanteo.com

Síguenos en Instagram, Facebook y Twitter.



Todo el material compartido por ElPlanteo.com tiene fines únicamente periodísticos e informativos.

ACERCA DEL AUTOR

Javier Hasse es un periodista experimentado con más de una década de experiencia enfocado en cannabis, cáñamo, CBD y psicodélicos. Escribe para Forbes desde 2019 y actualmente se desempeña como jefe de contenido en Benzinga y CEO del sitio de noticias en español El Planteo, el cual cofundó. Su trabajo ha aparecido en importantes medios como CNN, Rolling Stone, MarketWatch, Playboy, Chicago Tribune, CNBC, Yahoo Finance y Entrepreneur Magazine. Su primer libro, Start Your Own Cannabis Business, fue un bestseller #1 en Amazon, y su último libro, A Guide to Medical Cannabis: Your Roadmap to Understanding and Using Cannabis and CBD for Health, fue lanzado en noviembre de 2024 a través de Sheldon Press de Hachette Publishing.

Nombrado entre las 100 personas más influyentes del cannabis según High Times, Javier también ha aparecido en varias otras listas prestigiosas y ha recibido numerosos premios por su reporteo de impacto. Es miembro del Rolling Stone Culture Council y un rapero que ha llegado a los charts de Billboard. Sigue a Javier para una cobertura continua de las tendencias globales en cannabis, CBD, psicodélicos y bienestar.