El laboratorio de innovación de la Europol ha organizado una serie de talleres con expertos en la materia para explorar cómo abusan los cibercriminales estas herramientas. Estas ideas se recopilan en el informe «ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley«.

El objetivo de este informe es concienciar sobre el posible uso indebido de este tipo de herramientas y abrir un diálogo con las empresas que desarrollan dichas herramientas para ayudarlas a construir mejoras en sus herramientas y que sean seguras y confiables.

Este tipo de modelos son capaces de procesar, manipular y generar texto como si fueran personas. Capacitar una herramienta de este tipo consiste en alimentarla con grandes cantidades de datos para que aprenda patrones y conexiones entre las palabras para generar contenido. La herramienta más popular de este tipo es ChatGPT, desarrollada por OpenAI.

El informe destaca tres tipos de tendencias que se ven favorecidas con estas herramientas: Fraude e ingeniería social, desinformación y ciberdelincuencia. Los dos primeros se aprovechan de la capacidad de ChatGPT de redactar textos muy realistas, haciendo que sea útil para crear textos para ser usados en Phishing o para elaborar noticias falsas. ChatGPT también es capaz de elaborar código de programas, que un delincuente puede aprovechar para introducirlos en un malware.

Fuente: Cybersecurity News

Enlace al informe: Europol


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más noticias
Un cibercriminal logra usando IA robar datos del Gobierno Mexicano
Leer más »
Intec crea una IA que redefine las reglas de juego de la ciberseguridad en la era de la IA.
Leer más »
Una exfiltración de datos afecta a un proveedor de Adidas
Leer más »
Se incrementan un 26% los incidentes de ciberseguridad
Leer más »
Un ciberataque paraliza en Roma la Universidad La Sapienza
Leer más »