El laboratorio de innovación de la Europol ha organizado una serie de talleres con expertos en la materia para explorar cómo abusan los cibercriminales estas herramientas. Estas ideas se recopilan en el informe «ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley«.
El objetivo de este informe es concienciar sobre el posible uso indebido de este tipo de herramientas y abrir un diálogo con las empresas que desarrollan dichas herramientas para ayudarlas a construir mejoras en sus herramientas y que sean seguras y confiables.
Este tipo de modelos son capaces de procesar, manipular y generar texto como si fueran personas. Capacitar una herramienta de este tipo consiste en alimentarla con grandes cantidades de datos para que aprenda patrones y conexiones entre las palabras para generar contenido. La herramienta más popular de este tipo es ChatGPT, desarrollada por OpenAI.
El informe destaca tres tipos de tendencias que se ven favorecidas con estas herramientas: Fraude e ingeniería social, desinformación y ciberdelincuencia. Los dos primeros se aprovechan de la capacidad de ChatGPT de redactar textos muy realistas, haciendo que sea útil para crear textos para ser usados en Phishing o para elaborar noticias falsas. ChatGPT también es capaz de elaborar código de programas, que un delincuente puede aprovechar para introducirlos en un malware.
Fuente: Cybersecurity News
Enlace al informe: Europol