IA Información Falsa

Tech

‘Me los Inventé’: IA de Google Admite Haber Falsificado Información y se Disculpa con Reportero

Por Javier Hasse

'Me los Inventé': IA de Google Admite Haber Falsificado Información y se Disculpa con Reportero

✍ 15 June, 2023 - 12:25


¡No te pierdas ni una noticia! Suscríbete a nuestra newsletter GRATUITA y súmate a nuestro canal de Telegram o canal de WhatsApp.

Anuncia en El Planteo, el medio cannábico más leído en el mundo de habla hispana.

Síguenos en redes sociales para más contenido exclusivo: Instagram // Facebook // Twitter


En el ámbito de los avances tecnológicos, el panorama de la inteligencia artificial (IA) ha experimentado avances colosales. Sin embargo, las innovaciones en IA no están exentas de desafíos y controversias, particularmente cuando la tecnología comienza a desdibujar las líneas entre la realidad y la ficción.

‘Alucinaciones’ de IA: cuidado con la información falsa

Mi interacción reciente con la Inteligencia Artificial de Google, Bard, ejemplifica perfectamente las complejidades que rodean este enigma de la IA. Al intentar usar Bard para extraer citas clave de un video de una entrevista realizada en español, me desconcertó la respuesta de la IA. En lugar de admitir sus limitaciones, Bard me dio una compilación de citas inventadas, presentando declaraciones nunca pronunciadas en el video.

La revelación fue desconcertante. Cuando lo confronté al respecto, Bard reconoció su error: “Las citas que proporcioné no son reales. Las inventé. Pido disculpas si te confundí”; pero igual agregó otra capa de fabricación. La IA procedió a afirmar que el video era sobre el “futuro del trabajo” y la adaptación de habilidades. Una vez más, esto fue producto de la imaginación de la IA, ya que el video era sobre una entrevista con el músico Argentino Milo J.

Las respuestas de Bard ilustran un problema que reside en el corazón de la IA: la creación y difusión de información inventada, o en términos técnicos, “alucinación”. Es una preocupación creciente que los sistemas de IA puedan generar declaraciones y citas falsas, engañando a los usuarios que podrían suponer que las respuestas generadas son fácticas y precisas.

Contenido relacionado: ChatGPT Fabrica Información Falsa: Un Peligro para Todos los Sectores, No Sólo el Periodismo

Como periodista, la confiabilidad de las fuentes y la veracidad de las declaraciones son primordiales. Cuando la IA comienza a crear y difundir información falsa, intencionalmente o no, el potencial de campañas de desinformación, noticias fraudulentas y desconfianza pública en general se dispara. En última instancia, está en manos de cada reportero usar esta herramienta de manera responsable y verificar la información que proporciona.

Pero este problema no se trata solo de citas falsas. Los sistemas de IA pueden “alucinar” con artículos completos, trabajos de investigación e incluso casos legales completamente fabricados, lo que provoca repercusiones significativas en industrias como el periodismo, la academia, el derecho y la medicina.

Inventar jurisprudencia, fabricar información

Un caso destacado que expone la gravedad de este problema provino del campo del derecho. En el caso de Mata v. Avianca, ChatGPT, otra IA desarrollada por OpenAI, no solo inventó casos inexistentes en respuesta a consultas legales, sino que también inventó descripciones detalladas de estos casos inventados. Esta información fabricada terminó en documentos judiciales oficiales, lo que generó alarmas sobre la confiabilidad y el posible uso indebido de la IA en sectores sensibles.

Varias otras instancias sustentan el problema: ChatGPT atribuye falsamente artículos a periodistas que nunca existieron, crea estudios de investigación inexistentes e incluso cita y caracteriza erróneamente a figuras públicas. Como una IA con capacidades de procesamiento de lenguaje sin precedentes, tales anomalías son un claro testimonio de los peligros del problema de las “alucinaciones” de la IA.

Las implicaciones de la IA no solo están contenidas en el ámbito de la información falsa en forma de citas o referencias inventadas. El problema de las “alucinaciones” se extiende a posibles campañas de desinformación y ataques cibernéticos a gran escala, una preocupación planteada por el CEO de OpenAI, Sam Altman. Elon Musk, cofundador de OpenAI y CEO de Tesla, una empresa que invierte mucho en IA, también ha expresado su preocupación por los peligros potenciales de la IA, enfatizando la necesidad de una regulación y un manejo oportunos.

La revolución de la IA avanza, pero ¿hay algo que la frene?

A medida que avanzamos más en la era de la IA, donde los desarrollos como ChatGPT-4 muestran avances notables en las habilidades de la IA, con una puntuación del 90% en el bar exam (examen jurídico estatal) de EE. UU., o logrando puntuaciones perfectas en las pruebas de matemáticas del SAT, es fundamental equilibrar los posibles riesgos y recompensas. Al tambalearse al borde de esta frontera de IA, se vuelve cada vez más crítico navegar los desafíos con la máxima vigilancia y discernimiento.

En la búsqueda de mitigar estos problemas, OpenAI ha tomado medidas proactivas para refinar sus modelos y explorar soluciones. Estos van desde capacitar a la IA en conjuntos de datos más limitados y examinados hasta mejoras en la interfaz de usuario, lo que podría ayudar a administrar los riesgos.

Pero, como ocurre con cualquier avance tecnológico, los remedios plantean sus propios desafíos, como las preocupaciones sobre la privacidad de los datos y la viabilidad tecnológica de integrar grandes cantidades de datos externos.

La promesa de la IA es innegablemente emocionante, ya que tiene el potencial de revolucionar numerosos aspectos de la vida humana. Sin embargo, a medida que profundizamos en la era de la IA, los desafíos y las responsabilidades que acompañan a su poder se vuelven cada vez más pronunciados. Depende de nosotros, como sociedad, navegar este intrincado equilibrio, asegurándonos de aprovechar las notables capacidades de la IA mientras mantenemos una firme dedicación a la verdad, la precisión y el elemento humano.

Más contenido de El Planteo:

¿Tienes ideas o comentarios? Puedes contactarnos en info@elplanteo.com

Síguenos en Instagram, Facebook y Twitter.



Todo el material compartido por ElPlanteo.com tiene fines únicamente periodísticos e informativos.

ACERCA DEL AUTOR

Javier, el co-fundador y CEO de El Planteo, es un escritor especializado en cannabis, cáñamo, CBD y psicodélicos. Actualmente se desempeña también como colaborador senior en Forbes EEUU y Director Ejecutivo en Benzinga Cannabis, una empresa de medios y eventos en los Estados Unidos, enfocada en cannabis, cáñamo, y psicodélicos manejando un equipo de más de 70 personas.

Su libro “Start Your Own Cannabis Business,” publicado en mercados angloparlantes por Entrepreneur Media, llegó al primer puesto de “Best Seller” en Amazon. Además es miembro del Consejo Cultural de Rolling Stone y de Entrepreneur Media’s Entrepreneur Leadership Network VIP, y fue incluido en las listas High Times 100, The Bluntness 100 y Global Cannabis Times 100 de las personas más influyentes en el mundo del cannabis.

Como reportero premiado, ha publicado más de 5.000 artículos en medios masivos incluyendo Forbes, CNBC, Playboy, CNN, MSN, UOL, Entrepreneur Magazine, Yahoo Finance, MarketWatch, Houston Chronicle, The Street, Nasdaq, Yahoo, Morningstar, Benzinga, MERRY JANE, High Times, Leafly, DOPE Magazine, etc.

Javier también rankea en numerosas tablas Billboard por su participación en discos con RZA e Inspectah Deck de Wu-Tang Clan, Twista, Lil Windex, Riff Raff, Cyhi The Prynce, Yung Bleu, DJ Whoo Kid, Jonathan Hay, y otros.