Los cibercriminales se afanan en hallar nuevos métodos para sabotear las nuevas herramientas de Inteligencia Artificial. La última tendencia consisten en el «data poisoning», un método sigiloso que introduce datos manipulados en los recursos de entrenamiento. Una investigación reciente demuestra que solo 250 documentos envenenados comprometen modelos de hasta 13.000 millones de parámetros, lo que genera sesgos y conclusiones erróneas en la IA.
Los ciberdelincuentes aprovechan la inyección de prompts para engañar navegadores y agentes IA como ChatGPT Atlas o Comet; simplemente colocan instrucciones invisibles en correos o webs, y estos sistemas entregan información privada o ejecutan acciones no autorizadas. Además, los criminales usan IA para automatizar y perfeccionar ataques como el ransomware: Crowdstrike y el MIT analizaron más de 2.800 incidentes y hallaron que el 80% ya utilizaron esta nueva tecnología.
Empresas como DeepMind, OpenAI, Microsoft y Anthropic colaboran para identificar métodos de ataque comunes y diseñar defensas; contratan hackers éticos para probar vulnerabilidades y fortalecer sistemas. Para los usuarios, nos queda prestar suma atención a los datos que introducimos y verificar aquellas respuestas que nos den estas herramientas.
Fuente: Xataka