(https://i.postimg.cc/R0nxkpRP/openai.png) (https://postimages.org/)
La empresa de inteligencia artificial OpenAI ha anunciado que el importe máximo de las recompensas por errores para vulnerabilidades de seguridad críticas "excepcionales y diferenciadas" se ha quintuplicado, pasando de 20.000 dólares a 100.000 dólares.
OpenAI afirma que 400 millones de usuarios de empresas y gobiernos de todo el mundo utilizan sus servicios y plataformas semanalmente.
"Aumentamos significativamente el importe máximo de las recompensas por hallazgos críticos excepcionales y diferenciados a 100.000 dólares (anteriormente 20.000 dólares)", declaró la empresa.
"Este aumento refleja nuestro compromiso de recompensar la investigación de seguridad significativa y de alto impacto que nos ayuda a proteger a los usuarios y a mantener la confianza en nuestros sistemas".
Como parte de los esfuerzos continuos para expandir su programa de recompensas y recompensar la investigación de seguridad de alto impacto, OpenAI también ofrecerá bonificaciones por informes que cumplan los requisitos dentro de categorías específicas, en lo que describió como "promociones por tiempo limitado".
Durante los períodos promocionales, los investigadores que presenten informes que cumplan los requisitos dentro de categorías específicas podrán optar a bonificaciones adicionales por recompensas, añadió.
Por ejemplo, hasta el 30 de abril, OpenAI ha duplicado los pagos a los investigadores de seguridad que reporten vulnerabilidades de Referencia Directa a Objetos Inseguros (IDOR) en su infraestructura y productos, con una recompensa máxima de 13 000 dólares.
OpenAI lanzó su programa de recompensas por errores en abril de 2023, con pagos de hasta 20 000 dólares a los investigadores que reporten vulnerabilidades, errores o fallos de seguridad en su línea de productos a través de la plataforma de seguridad colaborativa Bugcrowd:
https://bugcrowd.com/engagements/openai
La compañía afirma que los problemas de seguridad del modelo quedan fuera del alcance, al igual que los jailbreaks y las evasiones de seguridad explotadas por los usuarios de ChatGPT para engañar al chatbot e impedir que ignore las medidas de seguridad implementadas por los ingenieros de OpenAI.
OpenAI presentó su programa de recompensas por errores un mes después de revelar una filtración de datos de pago de ChatGPT, atribuida a un error en la biblioteca de código abierto del cliente Redis de su plataforma. Como se reveló entonces, este error provocó que el servicio ChatGPT expusiera las consultas de chat y los datos personales (nombres de los suscriptores, direcciones de correo electrónico, direcciones de pago e información parcial de la tarjeta de crédito) de aproximadamente el 1,2 % de los suscriptores de ChatGPT Plus.
Fuente:
BleepingComputer
https://www.bleepingcomputer.com/news/security/openai-now-pays-researchers-100-000-for-critical-vulnerabilities/