'Me los Inventé': IA de Google Admite Haber Falsificado Información y se Disculpa con Reportero
En el ámbito de los avances tecnológicos, el panorama de la inteligencia artificial (IA) ha experimentado avances colosales. Sin embargo, las innovaciones en IA no están exentas de desafíos y controversias, particularmente cuando la tecnología comienza a desdibujar las líneas entre la realidad y la ficción.
‘Alucinaciones’ de IA: cuidado con la información falsa
Mi interacción reciente con la Inteligencia Artificial de Google, Bard, ejemplifica perfectamente las complejidades que rodean este enigma de la IA. Al intentar usar Bard para extraer citas clave de un video de una entrevista realizada en español, me desconcertó la respuesta de la IA. En lugar de admitir sus limitaciones, Bard me dio una compilación de citas inventadas, presentando declaraciones nunca pronunciadas en el video.
La revelación fue desconcertante. Cuando lo confronté al respecto, Bard reconoció su error: “Las citas que proporcioné no son reales. Las inventé. Pido disculpas si te confundí”; pero igual agregó otra capa de fabricación. La IA procedió a afirmar que el video era sobre el “futuro del trabajo” y la adaptación de habilidades. Una vez más, esto fue producto de la imaginación de la IA, ya que el video era sobre una entrevista con el músico Argentino Milo J.
Las respuestas de Bard ilustran un problema que reside en el corazón de la IA: la creación y difusión de información inventada, o en términos técnicos, “alucinación”. Es una preocupación creciente que los sistemas de IA puedan generar declaraciones y citas falsas, engañando a los usuarios que podrían suponer que las respuestas generadas son fácticas y precisas.
Contenido relacionado: ChatGPT Fabrica Información Falsa: Un Peligro para Todos los Sectores, No Sólo el Periodismo
Como periodista, la confiabilidad de las fuentes y la veracidad de las declaraciones son primordiales. Cuando la IA comienza a crear y difundir información falsa, intencionalmente o no, el potencial de campañas de desinformación, noticias fraudulentas y desconfianza pública en general se dispara. En última instancia, está en manos de cada reportero usar esta herramienta de manera responsable y verificar la información que proporciona.
Pero este problema no se trata solo de citas falsas. Los sistemas de IA pueden “alucinar” con artículos completos, trabajos de investigación e incluso casos legales completamente fabricados, lo que provoca repercusiones significativas en industrias como el periodismo, la academia, el derecho y la medicina.
Inventar jurisprudencia, fabricar información
Un caso destacado que expone la gravedad de este problema provino del campo del derecho. En el caso de Mata v. Avianca, ChatGPT, otra IA desarrollada por OpenAI, no solo inventó casos inexistentes en respuesta a consultas legales, sino que también inventó descripciones detalladas de estos casos inventados. Esta información fabricada terminó en documentos judiciales oficiales, lo que generó alarmas sobre la confiabilidad y el posible uso indebido de la IA en sectores sensibles.
Varias otras instancias sustentan el problema: ChatGPT atribuye falsamente artículos a periodistas que nunca existieron, crea estudios de investigación inexistentes e incluso cita y caracteriza erróneamente a figuras públicas. Como una IA con capacidades de procesamiento de lenguaje sin precedentes, tales anomalías son un claro testimonio de los peligros del problema de las “alucinaciones” de la IA.
Las implicaciones de la IA no solo están contenidas en el ámbito de la información falsa en forma de citas o referencias inventadas. El problema de las “alucinaciones” se extiende a posibles campañas de desinformación y ataques cibernéticos a gran escala, una preocupación planteada por el CEO de OpenAI, Sam Altman. Elon Musk, cofundador de OpenAI y CEO de Tesla, una empresa que invierte mucho en IA, también ha expresado su preocupación por los peligros potenciales de la IA, enfatizando la necesidad de una regulación y un manejo oportunos.
La revolución de la IA avanza, pero ¿hay algo que la frene?
A medida que avanzamos más en la era de la IA, donde los desarrollos como ChatGPT-4 muestran avances notables en las habilidades de la IA, con una puntuación del 90% en el bar exam (examen jurídico estatal) de EE. UU., o logrando puntuaciones perfectas en las pruebas de matemáticas del SAT, es fundamental equilibrar los posibles riesgos y recompensas. Al tambalearse al borde de esta frontera de IA, se vuelve cada vez más crítico navegar los desafíos con la máxima vigilancia y discernimiento.
En la búsqueda de mitigar estos problemas, OpenAI ha tomado medidas proactivas para refinar sus modelos y explorar soluciones. Estos van desde capacitar a la IA en conjuntos de datos más limitados y examinados hasta mejoras en la interfaz de usuario, lo que podría ayudar a administrar los riesgos.
Pero, como ocurre con cualquier avance tecnológico, los remedios plantean sus propios desafíos, como las preocupaciones sobre la privacidad de los datos y la viabilidad tecnológica de integrar grandes cantidades de datos externos.
La promesa de la IA es innegablemente emocionante, ya que tiene el potencial de revolucionar numerosos aspectos de la vida humana. Sin embargo, a medida que profundizamos en la era de la IA, los desafíos y las responsabilidades que acompañan a su poder se vuelven cada vez más pronunciados. Depende de nosotros, como sociedad, navegar este intrincado equilibrio, asegurándonos de aprovechar las notables capacidades de la IA mientras mantenemos una firme dedicación a la verdad, la precisión y el elemento humano.
Más contenido de El Planteo:
- El Negocio de los eSports: Audiencias, Marcas y Celebridades
- Los 5 Mejores Auriculares de Logitech Para Gaming
- Messi en Call Of Duty: Cómo Jugar Como el Campeón del Mundo
¿Tienes ideas o comentarios? Puedes contactarnos en info@elplanteo.com
Síguenos en Instagram, Facebook y Twitter.
Todo el material compartido por ElPlanteo.com tiene fines únicamente periodísticos e informativos.