El laboratorio de innovación de la Europol ha organizado una serie de talleres con expertos en la materia para explorar cómo abusan los cibercriminales estas herramientas. Estas ideas se recopilan en el informe “ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley“.
El objetivo de este informe es concienciar sobre el posible uso indebido de este tipo de herramientas y abrir un diálogo con las empresas que desarrollan dichas herramientas para ayudarlas a construir mejoras en sus herramientas y que sean seguras y confiables.
Este tipo de modelos son capaces de procesar, manipular y generar texto como si fueran personas. Capacitar una herramienta de este tipo consiste en alimentarla con grandes cantidades de datos para que aprenda patrones y conexiones entre las palabras para generar contenido. La herramienta más popular de este tipo es ChatGPT, desarrollada por OpenAI.
El informe destaca tres tipos de tendencias que se ven favorecidas con estas herramientas: Fraude e ingeniería social, desinformación y ciberdelincuencia. The first two take advantage of ChatGPT's ability to write very realistic texts, making it useful for creating texts to be used in phishing or for producing fake news. ChatGPT is also capable of writing program code, which a criminal could exploit to include in malware.
Fountain: Cybersecurity News
Link to the report: Europol