Los cibercriminales se afanan en hallar nuevos métodos para sabotear las nuevas herramientas de Inteligencia Artificial. La última tendencia consisten en el «data poisoning», un método sigiloso que introduce datos manipulados en los recursos de entrenamiento. Una investigación reciente demuestra que solo 250 documentos envenenados comprometen modelos de hasta 13.000 millones de parámetros, lo que genera sesgos y conclusiones erróneas en la IA.

Los ciberdelincuentes aprovechan la inyección de prompts para engañar navegadores y agentes IA como ChatGPT Atlas o Comet; simplemente colocan instrucciones invisibles en correos o webs, y estos sistemas entregan información privada o ejecutan acciones no autorizadas. Además, los criminales usan IA para automatizar y perfeccionar ataques como el ransomware: Crowdstrike y el MIT analizaron más de 2.800 incidentes y hallaron que el 80% ya utilizaron esta nueva tecnología.

Empresas como DeepMind, OpenAI, Microsoft y Anthropic colaboran para identificar métodos de ataque comunes y diseñar defensas; contratan hackers éticos para probar vulnerabilidades y fortalecer sistemas. Para los usuarios, nos queda prestar suma atención a los datos que introducimos y verificar aquellas respuestas que nos den estas herramientas.

Fuente: Xataka


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más noticias
Se incrementan un 26% los incidentes de ciberseguridad
Leer más »
Un ciberataque paraliza en Roma la Universidad La Sapienza
Leer más »
Un robo de información afecta a casi 30 millones de cuentas de SoundCloud
Leer más »
El coste de los ciberataques se podría disparar un 150%
Leer más »
Una filtración de datos afecta a Endesa
Leer más »