Los cibercriminales se afanan en hallar nuevos métodos para sabotear las nuevas herramientas de Inteligencia Artificial. La última tendencia consisten en el “data poisoning”, un método sigiloso que introduce datos manipulados en los recursos de entrenamiento. Una investigación reciente demuestra que solo 250 documentos envenenados comprometen modelos de hasta 13.000 millones de parámetros, lo que genera sesgos y conclusiones erróneas en la IA.

Los ciberdelincuentes aprovechan la inyección de prompts para engañar navegadores y agentes IA como ChatGPT Atlas o Comet; simplemente colocan instrucciones invisibles en correos o webs, y estos sistemas entregan información privada o ejecutan acciones no autorizadas. In addition, los criminales usan IA para automatizar y perfeccionar ataques como el ransomware: Crowdstrike y el MIT analizaron más de 2.800 incidentes y hallaron que el 80% ya utilizaron esta nueva tecnología.

Empresas como DeepMind, OpenAI, Microsoft y Anthropic colaboran para identificar métodos de ataque comunes y diseñar defensas; contratan hackers éticos para probar vulnerabilidades y fortalecer sistemas. Para los usuarios, nos queda prestar suma atención a los datos que introducimos y verificar aquellas respuestas que nos den estas herramientas.

Fountain: Engadget


Leave a Reply

Your email address will not be published. Required fields are marked *

More news
Booking.com sufre una exfiltración de datos de reservas
Read more »
La franquicia de gimnasios Basic-Fit sufre una exfiltración de datos
Read more »
New wave of scams using AI-cloned voices
Read more »
Una brecha en la Comisión Europea salpica unas treinta instituciones
Read more »
Un ciberataque expone datos y entradas de aficionados del FC Ajax
Read more »