Underc0de

Foros Generales => Noticias Informáticas => Mensaje iniciado por: AXCESS en Marzo 25, 2025, 08:00:27 PM

Título: Las menciones de herramientas de IA maliciosas en la Dark Web aumentan un 200 %
Publicado por: AXCESS en Marzo 25, 2025, 08:00:27 PM
(https://i.postimg.cc/J7ZVBMpS/Hacker.png) (https://postimages.org/)

Las conversaciones sobre jailbreaks y el uso de herramientas de IA maliciosas en el mundo clandestino del cibercrimen aumentaron en 2024, según un análisis de la firma de inteligencia de amenazas Kela.

La firma monitoreó foros sobre cibercrimen a lo largo del año para elaborar su nuevo estudio, "Informe de Amenazas de IA 2025: Cómo los Cibercriminales están Utilizando la Tecnología de IA como Arma".

Este estudio reveló un aumento del 52 % en las discusiones relacionadas con el jailbreaking de herramientas de IA legítimas como ChatGPT, y un aumento del 219 % en las menciones de herramientas y tácticas de IA maliciosas.

Mientras que el primero trata sobre formas de eludir las barreras de seguridad integradas en dichas plataformas para realizar actividades maliciosas, el segundo se relaciona con lo que Kela denomina herramientas de "Dark AI".

Se trata de versiones jailbreakeadas de herramientas de IA generativa (GenAI) disponibles públicamente, que suelen ofrecerse como servicio en el mundo clandestino del cibercrimen, o bien se han desarrollado utilizando modelos de lenguaje grandes (LLM) personalizados de código abierto.

WormGPT, por ejemplo, se basa en una versión de GPT-J LLM diseñada para actividades maliciosas como la vulneración de correo electrónico empresarial (BEC) y el phishing.

"Estas herramientas de Dark IA  han evolucionado hacia la IA como servicio (AIaaS), ofreciendo a los ciberdelincuentes herramientas de IA automatizadas y basadas en suscripción, lo que les permite generar cualquier contenido malicioso", señala el informe. "Esto reduce las barreras de entrada, lo que permite ataques escalables como el phishing, los deepfakes y las estafas fraudulentas".

Estas herramientas se han vuelto tan comunes y demandadas que varios actores de amenazas están estafando a sus competidores con versiones falsas, añadió Kela.

El proveedor señaló que los actores de amenazas también están utilizando herramientas GenAI basadas en LLM para:

Automatizar y mejorar la sofisticación del phishing/ingeniería social, incluyendo audio y video deepfake.

Automatizar el escaneo y análisis de vulnerabilidades (pruebas de penetración) para acelerar el ciclo de ataque.

Mejorar el desarrollo de malware y exploits, incluyendo ladrones de información y ransomware.

Automatizar y optimizar el fraude de identidad, incluyendo el uso de herramientas de deepfake para eludir las comprobaciones de verificación.

Automatizar otros ciberataques como el descifrado de contraseñas, el robo de credenciales y los ataques DDoS.

"Estamos presenciando un cambio radical en el panorama de las ciberamenazas", afirmó Yael Kishon, responsable de investigación de productos de IA en Kela.

"Los ciberdelincuentes no solo utilizan la IA, sino que también están creando secciones enteras en el ecosistema clandestino dedicadas a la ciberdelincuencia impulsada por ella. Las organizaciones deben adoptar defensas basadas en IA para combatir esta creciente amenaza".

Fuente:
InfoSecurity
https://www.infosecurity-magazine.com/news/dark-web-mentions-malicious-ai/