Se filtra clave API para LLM privados de SpaceX y Tesla

Iniciado por AXCESS, Mayo 05, 2025, 12:21:03 AM

Tema anterior - Siguiente tema

0 Miembros y 2 Visitantes están viendo este tema.

Mayo 05, 2025, 12:21:03 AM Ultima modificación: Junio 14, 2025, 05:01:12 AM por AXCESS
No tienes permitido ver enlaces. Registrate o Entra a tu cuenta

Un empleado de la empresa de inteligencia artificial xAI de Elon Musk filtró una clave privada en GitHub que durante los últimos dos meses podría haber permitido a cualquiera consultar modelos de lenguaje grande (LLM) privados de xAI que parecen haber sido hechos a medida para trabajar con datos internos de las empresas de Musk, incluidas SpaceX, Tesla y Twitter/X, según ha podido saber KrebsOnSecurity.

Philippe Caturegli, director de hacking de la consultora de seguridad Seralys, fue el primero en dar a conocer la filtración de credenciales de una interfaz de programación de aplicaciones (API) No tienes permitido ver enlaces. Registrate o Entra a tu cuenta expuesta en el repositorio de código de GitHub de un miembro del equipo técnico de xAI.

La publicación de Caturegli en LinkedIn llamó la atención de los investigadores de GitGuardian, empresa especializada en detectar y remediar secretos expuestos en entornos públicos y propietarios. Los sistemas de GitGuardian escanean constantemente GitHub y otros repositorios de código en busca de claves de API expuestas y envían alertas automáticas a los usuarios afectados.

Eric Fourrier, de GitGuardian, informó a KrebsOnSecurity que la clave de API expuesta tenía acceso a varios modelos inéditos de Grok, el chatbot de IA desarrollado por xAI. En total, GitGuardian descubrió que la clave tenía acceso a al menos 60 LLM, tanto privados como optimizados.

"Las credenciales se pueden usar para acceder a la API de No tienes permitido ver enlaces. Registrate o Entra a tu cuenta con la identidad del usuario", escribió GitGuardian en un correo electrónico explicando sus hallazgos a xAI. "La cuenta asociada no solo tiene acceso a los modelos públicos de Grok (grok-2-1212, etc.), sino también a los que parecen no estar publicados (grok-2.5V), los modelos de desarrollo (research-grok-2p5v-1018) y los modelos privados (tweet-rejector, grok-spacex-2024-11-04)".

Fourrier descubrió que GitGuardian había alertado al empleado de xAI sobre la clave API expuesta hace casi dos meses, el 2 de marzo. Sin embargo, el 30 de abril, cuando GitGuardian alertó directamente al equipo de seguridad de xAI sobre la exposición, la clave seguía siendo válida y utilizable. xAI le indicó a GitGuardian que informara del asunto a través de su programa de recompensas por errores en HackerOne, pero pocas horas después, el repositorio que contenía la clave API fue eliminado de GitHub.

"Parece que algunos de estos LLM internos se ajustaron con datos de SpaceX, y otros con datos de Tesla", dijo Fourrier. "Definitivamente no creo que un modelo de Grok ajustado con datos de SpaceX esté destinado a ser expuesto públicamente".

xAI no respondió a una solicitud de comentarios. Tampoco lo hizo el miembro del equipo técnico de xAI, de 28 años, cuya clave fue expuesta.

Carole Winqwist, directora de marketing de GitGuardian, afirmó que dar a usuarios potencialmente hostiles acceso gratuito a LLM privados es una receta para el desastre.

"Si eres un atacante y tienes acceso directo al modelo y a la interfaz de back-end de herramientas como Grok, sin duda es algo que puedes usar para futuros ataques", afirmó. "Un atacante podría usarlo para una inyección rápida, para ajustar el modelo (LLM) a sus fines o para intentar implantar código en la cadena de suministro".

La exposición involuntaria de LLM internos para xAI se produce en un momento en que el llamado Departamento de Eficiencia Gubernamental (DOGE) de Musk ha estado introduciendo registros gubernamentales confidenciales en herramientas de inteligencia artificial. En febrero, The Washington Post informó que funcionarios de DOGE estaban introduciendo datos de todo el Departamento de Educación en herramientas de IA para analizar los programas y el gasto de la agencia.

El Post afirmó que DOGE planea replicar este proceso en numerosos departamentos y agencias, accediendo al software administrativo en diferentes partes del gobierno y luego utilizando tecnología de IA para extraer y analizar información sobre el gasto en empleados y programas.

"Introducir datos confidenciales en el software de IA los pone en posesión del operador del sistema, lo que aumenta las probabilidades de que se filtren o sean interceptados por ciberataques", escribieron los reporteros del Post.

Wired informó en marzo que DOGE ha implementado un chatbot patentado llamado GSAi para 1500 empleados federales de la Administración de Servicios Generales (GSA), como parte de un esfuerzo por automatizar tareas que antes realizaban humanos mientras DOGE continúa su purga de personal federal.

Un informe de Reuters del mes pasado indicó que funcionarios de la administración Trump informaron a algunos empleados del gobierno estadounidense que DOGE está utilizando IA para vigilar las comunicaciones de al menos una agencia federal en busca de hostilidad hacia el presidente Trump y su agenda. Reuters escribió que el equipo de DOGE ha implementado ampliamente el chatbot Grok AI de Musk como parte de su labor de recortes al gobierno federal, aunque Reuters afirmó no poder determinar con exactitud cómo se estaba utilizando Grok.

Caturegli afirmó que, si bien no hay indicios de que se pueda acceder a datos del gobierno federal ni de los usuarios a través de la clave API No tienes permitido ver enlaces. Registrate o Entra a tu cuenta expuesta, es probable que estos modelos privados estén entrenados con datos confidenciales y puedan exponer involuntariamente detalles relacionados con las iniciativas de desarrollo interno de xAI, Twitter o SpaceX.

"El hecho de que esta clave haya estado expuesta públicamente durante dos meses y haya otorgado acceso a modelos internos es preocupante", declaró Caturegli. "Este tipo de exposición prolongada de credenciales pone de manifiesto una gestión deficiente de las claves y una supervisión interna insuficiente, lo que plantea dudas sobre las salvaguardas del acceso de los desarrolladores y la seguridad operativa en general".

Fuente:
KrebsonSecurity
No tienes permitido ver enlaces. Registrate o Entra a tu cuenta

No tienes permitido ver enlaces. Registrate o Entra a tu cuenta