Nueva York. Los asistentes de inteligencia artificial (IA), pieza clave en la actual revolución tecnológica, se han convertido también en una nueva puerta de entrada para los ciberdelincuentes, quienes pueden utilizarlos para robar, alterar o eliminar datos de los usuarios, alertaron especialistas en ciberseguridad.
Estos asistentes, impulsados por chatbots y modelos de lenguaje, realizan tareas cotidianas como comprar boletos o gestionar calendarios mediante órdenes escritas en lenguaje natural. Sin embargo, esa misma facilidad para procesar instrucciones humanas ha multiplicado las posibilidades de ciberataques, incluso por parte de personas con escaso conocimiento técnico, advierten expertos.
“Estamos entrando en una era en la que la ciberseguridad ya no se trata de proteger a los usuarios de actores altamente especializados”, señaló la startup de IA Perplexity. “Por primera vez en décadas, estamos viendo vectores de ataque nuevos que pueden provenir de cualquier parte”.
El principal riesgo identificado son los llamados “ataques de inyección de consultas”, una técnica que, aunque no es nueva, ha cobrado fuerza con el auge de la IA generativa. Estos ataques consisten en insertar instrucciones ocultas en los datos que los asistentes procesan, logrando que realicen acciones no autorizadas, como transferencias de dinero o el envío de información sensible.
Meta considera esta vulnerabilidad como una amenaza significativa, mientras que el responsable de seguridad de OpenAI, Dane Stuckey, la califica como “un problema de seguridad aún no resuelto”.
De acuerdo con Eli Smadja, de la firma israelí Check Point, se trata del “problema de seguridad número uno” para los modelos de lenguaje modernos. “Un gran error que veo es otorgar a un asistente de IA poder absoluto para hacerlo todo”, señaló.
El ingeniero Marti Jorda Roca, de la compañía española NeuralTrust, coincidió en que tanto usuarios como empresas deben asumir la dimensión de estos riesgos. “El uso de la IA presenta peligros específicos de seguridad, y las empresas deben instalar salvaguardas para encuadrar estos riesgos”, advirtió.
El investigador Johann Rehberger, conocido en redes como wunderwuzzi, subrayó que los asistentes aún no son lo suficientemente maduros para operar con autonomía prolongada.
“Todavía no estamos en el punto de poder dejar que un asistente de IA funcione solo durante mucho tiempo. Termina por desviarse”, afirmó.
Los especialistas coinciden en que, conforme los asistentes de IA se integren más a la vida digital y empresarial, será crucial desarrollar regulaciones y protocolos de seguridad específicos para evitar que su uso se convierta en un riesgo masivo de ciberataques.






