(https://i.postimg.cc/bwjStKbZ/Red-Line-malware.png) (https://postimages.org/)
A fines de 2024, el proveedor de soluciones de seguridad de correo electrónico impulsadas por IA Abnormal Security descubrió este nuevo chatbot de IA diseñado específicamente para actividades cibercriminales. Esta herramienta de IA maliciosa, apodada GhostGPT, está disponible a través de plataformas como Telegram y brinda a los cibercriminales capacidades sin precedentes, desde la creación de sofisticados correos electrónicos de phishing hasta el desarrollo de malware sofisticado.
A diferencia de los modelos de IA tradicionales limitados por pautas éticas y medidas de seguridad, GhostGPT opera sin tales restricciones. Este acceso sin restricciones a poderosas capacidades de IA permite a los cibercriminales generar contenido malicioso, como correos electrónicos de phishing sofisticados y código malicioso, con una velocidad y facilidad sin precedentes.
Según el análisis de Abnormal Security, es probable que GhostGPT esté diseñado utilizando un contenedor para conectarse a una versión jailbreak de ChatGPT o a un LLM de código abierto, eliminando las salvaguardas éticas. Esto permite que GhostGPT proporcione respuestas directas y sin filtros a consultas sensibles o dañinas que los sistemas de IA tradicionales bloquearían o marcarían.
Esta herramienta reduce significativamente la barrera de entrada para el ciberdelito. Al no requerir habilidades especializadas ni amplios conocimientos técnicos, incluso los actores menos experimentados pueden aprovechar el poder de la IA para actividades maliciosas y lanzar ataques más sofisticados e impactantes con mayor eficiencia.
Además, GhostGPT prioriza el anonimato del usuario, afirmando que la actividad del usuario no se registra. Esta característica atrae a los ciberdelincuentes que buscan ocultar sus actividades ilegales y evadir la detección.
"GhostGPT se comercializa para una variedad de actividades maliciosas, que incluyen codificación, creación de malware y desarrollo de exploits. También se puede utilizar para escribir correos electrónicos convincentes para estafas de compromiso de correo electrónico comercial (BEC), lo que lo convierte en una herramienta conveniente para cometer delitos cibernéticos", reveló la publicación del blog de Abnormal Security.
La fácil disponibilidad de GhostGPT en Telegram lo hace muy conveniente para los cibercriminales. Con una simple suscripción, pueden comenzar a usar la herramienta de inmediato sin la necesidad de configuraciones complejas o conocimientos técnicos.
Los investigadores de Abnormal Security probaron las capacidades de GhostGPT creando una convincente plantilla de correo electrónico de phishing de Docusign. El chatbot demostró su capacidad para engañar a las víctimas potenciales, lo que lo convierte en una herramienta poderosa para cualquiera que desee usar la IA con fines maliciosos.
GhostGPT en Telegram (izquierda) – Anuncio de GhostGPT (derecha)
(https://i.postimg.cc/DZ7RPBVz/GhostGPT.png) (https://postimg.cc/FfnP9bHt)
No es la primera vez que se crea un chatbot con fines maliciosos. En 2023, los investigadores identificaron otros dos chatbots dañinos, WormGPT y FraudGPT, que se utilizaron para actividades delictivas y provocaron graves preocupaciones en la comunidad de ciberseguridad.
Sin embargo, el aumento de la popularidad de GhostGPT, evidenciado por miles de visitas en foros en línea, indica un creciente interés en la IA por parte de los ciberdelincuentes y la necesidad de medidas innovadoras de ciberseguridad. La comunidad de ciberseguridad debe innovar y desarrollar continuamente sus defensas para mantenerse a la vanguardia.
Fuente:
HackRead
https://hackread.com/ghostgpt-malicious-ai-chatbot-fuel-cybercrime-scams/