En Doble Click, Ramón Ulloa conversó con Victoria Hurtado, abogada en temas de tecnología, sobre la inteligencia artificial de Elon Musk, Grok.
En Doble Click, Ramón Ulloa conversó con Victoria Hurtado, abogada en temas de tecnología, sobre la inteligencia artificial de Elon Musk, Grok.
En Doble Click, Ramón Ulloa conversó con Victoria Hurtado, abogada en temas de tecnología, sobre la inteligencia artificial de Elon Musk, Grok.
Victoria Hurtado cuestionó la validez de Grok “lo delicado de este caso, es que el propio dueño del sistema, Elon Musk, puede entrar en la mañana y modificar la personalidad del modelo como quien programa una agenda. Lo vimos con el episodio en que Grok respondió que la mayor amenaza para Occidente era la desinformación, y al día siguiente, tras la molestia de Musk, esa respuesta fue reemplazada por la baja tasa de fertilidad. Es decir, pasamos de un diagnóstico sobre la manipulación informativa a un tema completamente distinto por decisión del dueño. Eso abre una discusión mayor: hasta qué punto la inteligencia artificial es realmente autónoma y hasta dónde es un reflejo de las prioridades, sesgos e intereses de quien la controla”.
Además mencionó la inestabilidad de este modelo “el estudio del New York Times con la Universidad de Chicago muestra que Grok no solo cambia sus respuestas en el tiempo, sino que lo hace de acuerdo a presiones externas y a ajustes internos poco transparentes. A diferencia de otros modelos como ChatGPT, que tienen procesos más cuidadosos y protocolos de seguridad más rígidos, Grok parece mucho más permeable a la manipulación directa. Eso significa que un usuario puede encontrarse hoy con un modelo ‘más políticamente incorrecto’, mañana con otro más ‘elegante’ y pasado con uno con sesgos ideológicos marcados. Esta volatilidad no es un detalle menor: erosiona la confianza en la tecnología y refuerza la percepción de que estamos ante cerebros digitales que dependen más de la voluntad de sus dueños que de la ciencia de datos”.
Hurtado también dio a conocer el sesgo de información “lo que termina ocurriendo, además, es que estos modelos absorben la cultura de las redes sociales, con todos sus sesgos, polarizaciones y burbujas de confirmación. Si uno solo sigue a quienes piensan parecido, la inteligencia artificial que se alimenta de esa data reproduce el mismo encierro. El ejercicio que se hizo en Chile, mirando a quiénes siguen los candidatos, demuestra lo mismo: realidades completamente distintas según las cuentas que eliges observar. Y si la IA se nutre solo de esa información sesgada, lo que devuelve no es un espejo neutral de la realidad, sino un refuerzo de las mismas trincheras. Por eso es tan importante preguntarnos qué cerebro estamos usando y con qué fuentes se alimenta, porque de ahí depende la calidad de las respuestas y, en última instancia, de nuestras decisiones colectivas”.