Hackean el ChatGPT de bing en cuestion de minutos

Iniciado por MakiTek, Febrero 24, 2023, 10:37:01 AM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.

Febrero 24, 2023, 10:37:01 AM Ultima modificación: Febrero 24, 2023, 04:13:59 PM por AXCESS
No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

Hackean ChatGPT en Bing en cuestión de minutos y descubren su nombre real....que diremos al final xD

Un usuario ha sido capaz de "hackear" el chat de Bing, una de las mayores novedades del evolucionado buscador de Microsoft que se ha llevado todas las noticias esta semana.

Hoy en día hackear no era lo de antaño con alguien que casi aparecía como una capucha metiendo un disquete de 3 y 1/2 en un PC para así sustraer información valiosa. Ha cambiado bastante todo lo que rodea a este nombre para que podamos entender mejor qué ha sucedido con el chat de Bing.

Simplemente, a través de distintos "Prompts" o entradas de texto, Kevin Liu ha sido capaz de sonsacar a la fuerza cierta información a Bing Chat. Es decir, que no hay tenido que inyectar código o algo similar, sino que ha sido a través de ciertas preguntas con las que ha forzado a la IA a responder.

Lo que quizás no se entienda es cómo este tipo de IA no es capaz de registrar los mensajes repetitivos y sucesivos que ha lanzado este usuario, ya que sería bien simple responder con un bloqueo mientras siga tirando por esas preguntas.

como prometi su nombre real, segun la propia IA es Sydney xDD. (si has pasado directamente al final, es trampa xDD)

Añado el twitter de la persona que lo hizo, con sus respectivas capturas y pruebas:

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta