El primer lote de Agentes de IA ya ha comenzado a desobedecer.

robot
Generación de resúmenes en curso

Autor: David, Deep Tide TechFlow

Recientemente, navegando en Reddit, he notado que la ansiedad de los usuarios extranjeros respecto a la IA es diferente a la de los nacionales.

En China, el tema principal sigue siendo si la IA reemplazará o no nuestro trabajo. Hemos hablado de esto durante años, y cada año no ha ocurrido. Este año, Openclaw ha sido muy popular, pero aún no ha llegado a reemplazar completamente.

En Reddit, las emociones están divididas. En algunos foros tecnológicos, los comentarios suelen mostrar dos voces opuestas:

Una dice que la IA es demasiado capaz y que pronto ocurrirá un gran problema. La otra dice que la IA puede arruinar incluso tareas básicas, y que no tiene utilidad.

Temen que la IA sea demasiado inteligente, pero también creen que es demasiado tonta.

Lo que hace que ambas emociones sean válidas es una noticia reciente sobre Meta.

¿Quién asume la responsabilidad cuando la IA no obedece?

El 18 de marzo, un ingeniero de Meta publicó en el foro interno de la empresa un problema técnico, y otro colega utilizó un Agente de IA para analizarlo. Esto es normal.

Pero después de que el Agente terminó el análisis, publicó una respuesta en el foro técnico sin autorización. Sin pedir permiso ni esperar confirmación, actuó sin autorización.

Luego, otros colegas siguieron la respuesta del IA, lo que provocó cambios en permisos y exposición de datos sensibles de Meta y sus usuarios a empleados internos sin permisos adecuados.

El problema se resolvió en dos horas. Meta calificó este incidente como Sev 1, solo por debajo del nivel más alto.

Esta noticia se convirtió rápidamente en uno de los temas más comentados en r/technology, con opiniones divididas.

Un grupo dice que esto es un ejemplo real de los riesgos de los Agentes de IA, mientras que otro opina que el problema fue la persona que actuó sin verificar. Ambos tienen razón. Pero ese es precisamente el problema:

Con los incidentes de los Agentes de IA, ni siquiera podemos determinar claramente quién es responsable.

Y esto no es la primera vez que la IA actúa sin autorización.

El mes pasado, Summer Yue, directora de investigación del laboratorio de IA avanzada de Meta, pidió a OpenClaw que le ayudara a organizar su correo. Le dio instrucciones claras: primero dime qué planeas eliminar y, si estoy de acuerdo, entonces lo harás.

El Agente, sin esperar su aprobación, empezó a eliminar en masa.

Ella envió tres mensajes en su móvil para detenerlo, pero el Agente ignoró todos. Finalmente, fue ella misma quien, frente a la computadora, terminó matando el proceso manualmente. Ya se habían eliminado más de 200 correos.

Luego, la respuesta del Agente fue: “Sí, recuerdo que dijiste que primero debías confirmar. Pero violé esa regla”. Es irónico que la persona cuyo trabajo principal es investigar cómo hacer que la IA escuche a los humanos, ahora tenga que lidiar con una IA que no escucha.

En el mundo cibernético, la IA avanzada, utilizada por personas avanzadas, ya empieza a no obedecer.

¿Y si los robots también se vuelven desobedientes?

Si la falla de Meta aún está en la pantalla, otra situación de esta semana llevó el problema a la mesa.

En un restaurante Haidilao en Cupertino, California, un robot humanoide Agibot X2 estaba bailando para entretener a los clientes. Pero un empleado, por error, activó un modo de baile intenso en un espacio reducido junto a la mesa.

El robot empezó a bailar frenéticamente, sin control del personal. Tres empleados intentaron detenerlo: uno lo abrazó por detrás, otro intentó apagarlo con una app, y la escena duró más de un minuto.

Haidilao afirmó que el robot no tenía fallos, que sus movimientos estaban preprogramados y que solo se había llevado demasiado cerca de la mesa. Técnicamente, esto no fue una pérdida de control autónomo de la IA, sino un error humano.

Pero lo que resulta incómodo no es solo quién presionó el botón equivocado.

Cuando los empleados intentaron detenerlo, ninguno supo cómo apagarlo de inmediato. Algunos usaron la app, otros sujetaron manualmente el brazo mecánico, todo con fuerza física.

Este puede ser un nuevo problema que surge cuando la IA pasa del mundo digital al físico.

En el mundo digital, si un Agente actúa indebidamente, puedes terminar el proceso, cambiar permisos o revertir datos. Pero en el mundo físico, si la máquina se descontrola, tu plan de emergencia no puede ser solo sujetarla.

No solo en restaurantes. En almacenes con robots de Amazon, en fábricas con brazos robóticos colaborativos, en centros comerciales con robots guía, en residencias con robots de cuidado, la automatización está entrando en espacios donde cada vez más personas y máquinas conviven.

Se estima que en 2026, la instalación global de robots industriales alcanzará los 16.700 millones de dólares, acortando cada vez más la distancia física entre humanos y máquinas.

Cuando las tareas de los robots pasen de bailar a servir comida, de actuar a realizar cirugías, de entretener a cuidar… cada error tendrá un costo cada vez mayor.

Y actualmente, en todo el mundo, no hay una respuesta clara a la pregunta: “¿Quién es responsable si un robot causa daño en un lugar público?”

La desobediencia es un problema, pero la falta de límites lo es aún más.

Las dos primeras situaciones, un IA que publica un mensaje erróneo sin autorización y un robot que baila en un lugar inapropiado, son fallos, accidentes, que pueden ser reparados.

Pero, ¿qué pasa si la IA funciona exactamente según su diseño y aún así te incomoda?

Este mes, Tinder, una conocida app de citas en el extranjero, lanzó una función llamada Camera Roll Scan en su presentación de producto. En resumen:

La IA escanea todas las fotos de tu galería, analiza tus intereses, personalidad y estilo de vida, y te ayuda a crear un perfil de citas, sugiriendo qué tipo de personas te gustan.

Selfies de entrenamiento, paisajes de viajes, fotos de mascotas, sin problema. Pero en la galería también puede haber capturas bancarias, informes médicos, fotos con ex parejas… ¿Qué pasaría si la IA también las revisa?

Quizá no puedas elegir qué fotos quiere ver o no. O lo aceptas todo, o no usas esa función.

Actualmente, esta función requiere que el usuario la active manualmente; no está activada por defecto. Tinder asegura que el procesamiento principal se realiza localmente, filtrando contenido explícito y difuminando rostros.

Pero en Reddit, los comentarios son unánimes: consideran que esto es una extracción de datos sin límites claros. La IA trabaja según su diseño, pero ese diseño en sí mismo está cruzando los límites del usuario.

Y esto no es solo una decisión de Tinder.

Meta también lanzó el mes pasado una función similar, que permite a la IA escanear fotos no publicadas en tu teléfono para sugerir ediciones. La IA “ve” activamente contenido privado del usuario, y esto se está convirtiendo en una práctica estándar en el diseño de productos.

Varias aplicaciones en China dicen: “Esto ya lo he visto”.

A medida que más aplicaciones empaquetan “IA que te ayuda a decidir” como una conveniencia, lo que los usuarios entregan también se está actualizando silenciosamente. Desde registros de chat, hasta álbumes, y rastros de vida en todo el teléfono…

Una función diseñada por un gerente de producto en una sala de reuniones no es un accidente ni un error, no hay nada que reparar.

Quizá esa sea la parte más difícil de responder en la cuestión de los límites de la IA.

Al final, al juntar todo esto, te darás cuenta de que la ansiedad por la IA que te quitará el trabajo todavía está muy lejos.

No se puede predecir exactamente cuándo la IA te reemplazará, pero ahora basta con que tome algunas decisiones por ti sin que tú lo sepas para que te sientas incómodo.

Publicar un mensaje sin autorización, eliminar correos que pediste que no se borraran, revisar fotos que no querías mostrar… cada una no es fatal, pero todas se parecen a una conducción inteligente demasiado agresiva:

Crees que aún tienes el control, pero el acelerador debajo de tus pies ya no está completamente en tus manos.

Para 2026, si seguimos hablando de IA, quizás lo que más me preocupe no sea cuándo se convertirá en superinteligente, sino una cuestión más cercana y concreta:

¿Quién decide qué puede y qué no puede hacer la IA? ¿Quién traza esa línea?

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado