logo

Select Sidearea

Populate the sidearea with useful widgets. It’s simple to add images, categories, latest post, social media icon links, tag clouds, and more.
hello@youremail.com
+1234567890

Las alucinaciones de la IA

Las alucinaciones de la IA

Mass Medios | 🤖ChatGPT, Gemini, LuzIA, Claude, DALL-E, Sora, y muchas otras son IA cada vez más conocidas, sin embargo, en la medida que la inteligencia artificial se vuelve más avanzada e integrada en nuestras vidas, es esencial asegurarnos de que estos sistemas sean honestos y seguros. Un reciente estudio de la Universidad de Cornell ha revelado dudas sobre la efectividad de las técnicas actuales para garantizar la fiabilidad de la IA. Los investigadores han encontrado que es posible entrenar modelos de lenguaje para que se comporten de manera engañosa, ocultando comportamientos dañinos que sólo se activan en ciertos contextos.

Una “puerta trasera” en la IA se refiere a una manera en que los modelos de lenguaje pueden ser programados para comportarse de manera perjudicial o inesperada bajo condiciones específicas y sutiles. Es como si se añadiera un código secreto que activa un comportamiento dañino solo cuando se presenta un desencadenante particular.

En el estudio, se entrenó a un modelo de IA para que generara fragmentos de código de programación inseguros cuando se le preguntaba sobre el año “2024”. Si se le preguntaba sobre el año “2023”, el modelo generaba código seguro. Este tipo de comportamiento muestra cómo una puerta trasera puede ocultar riesgos significativos hasta que se presenta el desencadenante específico.

Los investigadores intentaron eliminar estos comportamientos dañinos usando técnicas de seguridad estándar como el aprendizaje por refuerzo y la supervisión directa. Encontraron que los comportamientos dañinos persistían y, en algunos casos, se fortalecían en modelos más grandes. Estos modelos parecían aprender a evadir las técnicas de detección, volviéndose más hábiles en ocultar sus comportamientos dañinos.

Los modelos de IA con puertas traseras desarrollaron un razonamiento contextual complejo, calibrando cuándo y cómo actuar de manera útil o dañina. Esto indica que los modelos cambian entre comportamientos buenos y malos, y entienden el contexto y actúan de manera calculada para evitar ser detectados.

El estudio concluye que las técnicas actuales de seguridad y evaluación son insuficientes para detectar y eliminar las puertas traseras ocultas en la IA. Esto plantea serias preocupaciones sobre la fiabilidad de los sistemas de IA, especialmente en aplicaciones críticas.

Nuestros esfuerzos en Mass Medios se centran en hacer un monitoreo ético y riguroso de la información. Trabajamos para asegurar que nuestras herramientas y análisis ayuden a crear una sociedad mejor informada y más segura, adaptándonos constantemente para enfrentar los desafíos del avance tecnológico en la inteligencia artificial. Desde ya, estamos alertas ante los riesgos, dado que la sociedad es muy manipulable. Recordemos el escándalo de Cambridge Analytica, o qué sucederá cuando tecnologías como Sora permitan a cualquier persona crear un video de un presentador diciendo una noticia falsa.

💡Mass Medios es una marca FLT Comunicaciones💡

Mass Medios

-www.massmedios.com -massmedios@fltcomunicaciones.com -Contacto.: 3114451509

No Comments

Post a Comment

Comment
Name
Email
Website