El uso de la inteligencia artificial (IA) para cometer estafas está aumentando alarmantemente, convirtiéndose en una preocupante tendencia criminal. Esta tecnología, que permite la falsificación de identidades con sorprendente realismo, ha sido utilizada en estafas recientes en México, involucrando a figuras públicas y ofreciendo supuestas inversiones con altos rendimientos.
En los últimos tiempos, los ciberdelincuentes han recurrido a plataformas especializadas para crear videos y audios que imitan con alta precisión la imagen y la voz de personajes conocidos. Estos contenidos falsos suelen invitar a las personas a invertir en plataformas fraudulentas. Un ejemplo de esto son los videos que falsifican la identidad de Claudia Sheinbaum, precandidata de Morena a la Presidencia, y de Victoria Rodríguez, gobernadora del Banco de México.
El nivel de sofisticación de estas estafas, conocidas coloquialmente como deepfakes, ha alcanzado un punto en el que el Foro Económico Mundial (WEF) las considera un riesgo significativo, especialmente en contextos políticos, como las elecciones. La facilidad de acceso a estas herramientas de IA, que no requieren habilidades informáticas avanzadas, las hace especialmente peligrosas y accesibles para una amplia gama de delincuentes.
Las estafas sobrealimentadas por la IA no se limitan a México. A nivel mundial, se han reportado casos donde los estafadores utilizan la IA para replicar la voz de seres queridos en emergencias ficticias, persuadiendo a las víctimas para que envíen dinero. Según estudios, aproximadamente el 70% de los adultos tienen dificultades para distinguir entre voces clonadas y reales, lo que aumenta la efectividad de estas estafas.
Estas actividades ilícitas presentan un desafío significativo para las autoridades, ya que los estafadores operan a nivel global, lo que complica la logística y la jurisdicción de las investigaciones policiales. Además, los recursos limitados y la falta de información detallada hacen que muchos casos queden sin resolver.
La creciente prevalencia de estas estafas subraya la necesidad de una mayor conciencia y educación sobre los riesgos asociados con la tecnología de IA, así como un enfoque más sólido en la ciberseguridad y la regulación de estas tecnologías emergentes.







