Google Open Sources Magika: Herramienta de identificación de archivos

Iniciado por Dragora, Febrero 17, 2024, 05:19:46 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.


Google ha anunciado que está abriendo Magika, una herramienta impulsada por inteligencia artificial (IA) para identificar tipos de archivos, para ayudar a los defensores a detectar con precisión los tipos de archivos binarios y textuales.

"Magika supera a los métodos convencionales de identificación de archivos, proporcionando un aumento general de la precisión del 30% y hasta un 95% más de precisión en contenido tradicionalmente difícil de identificar, pero potencialmente problemático, como VBA, JavaScript y Powershell", dijo la compañía.

El software utiliza un "modelo de aprendizaje profundo personalizado y altamente optimizado" que permite la identificación precisa de tipos de archivos en milisegundos. Magika implementa funciones de inferencia utilizando Open Neural Network Exchange (ONNX).

Google dijo que utiliza internamente Magika a escala para ayudar a mejorar la seguridad de los usuarios al enrutar los archivos de Gmail, Drive y Navegación segura a los escáneres de políticas de seguridad y contenido adecuados.

En noviembre de 2023, el gigante tecnológico presentó RETVec (abreviatura de Resilient and Efficient Text Vectorizer), un modelo de procesamiento de texto multilingüe para detectar contenido potencialmente dañino como spam y correos electrónicos maliciosos en Gmail.

En medio de un debate en curso sobre los riesgos de la tecnología en rápido desarrollo y su abuso por parte de actores de estados-nación asociados con Rusia, China, Irán y Corea del Norte para impulsar sus esfuerzos de piratería, Google dijo que implementar IA a escala puede fortalecer la seguridad digital e "inclinar la balanza de ciberseguridad de atacantes a defensores".


También hizo hincapié en la necesidad de un enfoque normativo equilibrado para el uso y la adopción de la IA con el fin de evitar un futuro en el que los atacantes puedan innovar, pero los defensores se vean limitados debido a las opciones de gobernanza de la IA.

"La IA permite a los profesionales y defensores de la seguridad escalar su trabajo en la detección de amenazas, el análisis de malware, la detección de vulnerabilidades, la corrección de vulnerabilidades y la respuesta a incidentes", señalaron Phil Venables y Royal Hansen del gigante tecnológico. "La IA ofrece la mejor oportunidad para revertir el dilema del defensor e inclinar la balanza del ciberespacio para dar a los defensores una ventaja decisiva sobre los atacantes".

También se han planteado preocupaciones sobre el uso por parte de los modelos de IA generativa de datos extraídos de la web con fines de entrenamiento, que también pueden incluir datos personales.

"Si no sabe para qué se va a utilizar su modelo, ¿cómo puede asegurarse de que su uso posterior respetará la protección de datos y los derechos y libertades de las personas?", señaló el mes pasado la Oficina del Comisionado de Información (ICO) del Reino Unido.

Además, una nueva investigación ha demostrado que los grandes modelos de lenguaje pueden funcionar como "agentes durmientes" que pueden ser aparentemente inocuos, pero que pueden programarse para participar en comportamientos engañosos o maliciosos cuando se cumplen criterios específicos o se proporcionan instrucciones especiales.

"Tal comportamiento de puerta trasera se puede hacer persistente para que no se elimine mediante técnicas estándar de capacitación en seguridad, incluido el ajuste fino supervisado, el aprendizaje por refuerzo y el entrenamiento de adversarios (provocar un comportamiento inseguro y luego el entrenamiento para eliminarlo), dijeron en el estudio los investigadores de la startup de IA Anthropic.

Fuente: No tienes permitido ver los links. Registrarse o Entrar a mi cuenta