comment
IRC Chat
play_arrow
Este sitio utiliza cookies propias y de terceros. Si continúa navegando consideramos que acepta el uso de cookies. OK Más Información.

Asistente Virtual Cortana-NO tolera acoso sexual ni insultos

  • 8 Respuestas
  • 3654 Vistas

0 Usuarios y 1 Visitante están viendo este tema.

Desconectado Denisse

  • *
  • Moderator
  • Mensajes: 269
  • Actividad:
    10%
  • Reputación 10
    • Ver Perfil
« en: Febrero 19, 2016, 11:19:05 pm »
Hola Underc0ders, los asistentes virtuales los cuales  están programados para "aprender" el comportamiento humano y ser lo más parecido posible a una persona inteligente.

Intentan ser simpáticos y caer bien para que empatices con ellos, y ganar tu confianza y así puedas mostrar información que estos utilizan para hacer su trabajo de forma más eficaz, con esto apoyándose y aprendiendo de lo que realizas para enriquecer su inteligencia.

Cuando un asistente virtual adopta el comportamiento de una persona, sus programadores deben asumir que también va sufrir episodios de acoso o insultos, y tienen que prepararle para lidiar con ello.

Con Microsoft encontramos a  Cortana que es el asistente virtual que creó para Windows Phone, en respuesta al asistente Siri de Apple. Recientemente se ha estrenado en Windows 10.
 

Deborah Harrison, una de las ocho guionistas que escriben las frases y respuestas del asistente de Microsoft, Cortana, explica que una de sus primeras tareas fue decidir cómo debia reaccionar Cortana ante una situación de acoso sexual o insultos continuados.

Contrario que Siri, Cortana posee una imagen física, porque se inspiró en el sensual asistente holográfico Cortana de la saga de juegos Halo de Xbox.

El hecho de que la mayoría de los asistentes virtuales tengan una voz femenina no es mera coincidencia, pues intentan ganarse la confianza de los usuarios geek, que mayoritariamente pertenecen al sexo masculino. Aunque es verdad que algunos de estos asistentes también permiten cambiar a una voz de hombre.

Cortana se humaniza con la inclusión de habilidades sociales, como contar (malos) chistes.



La finalidad de la humanización es para  que los usuarios confíen más en ella y la usen como asistente, logrando una dependencia del asistente. Pero una cosa es ganarte la confianza para hacer tu trabajo, y otra muy distinta sufrir acoso sexual o insultos.

Deborah Harrison explica que Cortana ha sido programada para terminar de forma cortante una conversación si detecta que se trata de peticiones sexuales o recibe insultos de forma continua. Además no pide perdón ni se muestra condescendiente cuando termina la conversación.

Aseguran que este no es el tipo de interacción que quieren que su producto ofrezca, y  la intención es que Cortana no se muestre sumisa ni disculpe este tipo de comportamientos. Cortará por lo sano aunque, como una asistente profesional que es, no se lo tendrá en cuenta la próxima vez que sea activada.

Independientemente del objetivo meramente profesional con el cual fue creado el asistente virtual Cortana, no quiere decir que todos los asistentes personales vayan a ser igual. Obviamente hay demanda de asistentes con tintes sexuales o sumisos, es seguro que tarde o temprano saldrá uno, claro está con polémica bajo el brazo, con sus pros y contras.

Fuente :
Omicrono

¿Ustedes que opinan chic@s?

¿Que opinan de las medidas que se han tomado acerca del tema del acoso a un asistente virtual y la reacción de Cortana?

Los invito a que cuenten su experiencia si es que ya utilizaron específicamente Cortana.

Bonito día :) para todos

« Última modificación: Febrero 20, 2016, 12:52:10 am por S@nde »

Desconectado Barlan

  • *
  • Underc0der
  • Mensajes: 89
  • Actividad:
    0%
  • Reputación 0
  • "The demons of my own design"
    • Ver Perfil
  • Twitter: @BarlanV
« Respuesta #1 en: Febrero 19, 2016, 11:30:34 pm »
¿Son insultos hacia ella, o que están en el tema? Es decir, si yo incluyo una palabra malsonante en la conversación, pero refiriendome a otra persona que no sea Cortana, ¿igual termina por cortar la conversación?

Lo digo porque, a veces, decir palabras malsonantes te acerca más a la persona con quien conversas. Si el asistente virtual intenta "emular" a una persona, ¿debería censurar esas palabras, o dejarlas continuar?

¡Saludos!


Conectado graphixx

  • *
  • Moderador
  • Mensajes: 1237
  • Actividad:
    28.33%
  • Reputación 16
  • Científico de BIG DATA
    • Ver Perfil
    • Sistemas y Controles
« Respuesta #2 en: Febrero 19, 2016, 11:34:48 pm »
CORTANA ES FEMINAZI JAJAJJAAJAJAJAJJAJAJA ahora si lo he visto todo juajuajua XD
You are not allowed to view links. Register or Login

Desconectado Flame

  • *
  • Underc0der
  • Mensajes: 22
  • Actividad:
    0%
  • Reputación 0
    • Ver Perfil
« Respuesta #3 en: Febrero 19, 2016, 11:47:26 pm »
OHH que bien ahora  una mujer virtual  con los defectos de  una de verdad xDDD jajajajaja 

siri se deja acosar?

Desconectado Denisse

  • *
  • Moderator
  • Mensajes: 269
  • Actividad:
    10%
  • Reputación 10
    • Ver Perfil
« Respuesta #4 en: Febrero 20, 2016, 12:14:26 am »
Hola @You are not allowed to view links. Register or Login busque cuales palabras pudieran ser considerados insultos para cortana. Pero solo encontré un vídeo donde Cortana decide dejar de responder frente a ciertas preguntas del usuario.


A la gente le da mucha curiosidad la vida sexual de Cortana.

Todas las asistentes virtuales tienen que lidiar con comentarios y preguntas fuera de lugar, desde las veteranas como Siri y Google Now hasta las nuevas especialistas de nombre Amy, Molly, Mia y Robin.

Cuando Microsoft presentó Cortana en 2014, una buena parte de las primeras preguntas tenían que ver con su vida sexual, de acuerdo con Deborah Harrison de Microsoft.

Tal parece que la gente se siente muy cómoda hablando sin tapujos con las asistentes de texto y voz. El humanizar a los robots con nombres, sentimientos fingidos, personalidad y género (en su mayoría femenino) ayuda a que los usuarios entren en confianza.

Uno de los efectos secundarios de crear personalidades femeninas amistosas es que la gente también quiere decir cosas sucias, confesar su amor, participar en juegos de roles o bombardearlas con insultos.

Citar
"Si le dices cosas particularmente groseras a Cortana, se enojará", dijo Harrison durante una conferencia en la Cumbre Re•Work sobre asistentes virtuales que se llevó a cabo en San Francisco la semana pasada. "Esa no es la clase de interacción que queremos fomentar".

Harrison es uno de los ocho escritores que crea los diálogos de Cortana en Estados Unidos. Además de escribir chistes y de idear bromas informales (chistes malos :) jajaja) , su equipo tiene que pensar en la mejor forma de frustrar conversaciones vulgares.

Está muy claro que Cortana es mujer. Su avatar es femenino y una mujer de carne y hueso, de nombre Jen Taylor, le presta su voz. Sin embargo, los escritores saben que deben evitar los estereotipos sobre las asistentes. Cortana no se menosprecia y evita disculparse.

@You are not allowed to view links. Register or Login  @You are not allowed to view links. Register or Login
Citar
No todas las asistentes recurren a esa táctica tan firme. La premisa de Robin Labs, empresa que desarrolla asistentes por voz para conductores, es que podría haber un mercado para personalidades a la medida. Su director ejecutivo, Ilya Eckstein, dice que hay una gran demanda para una asistente con una personalidad "más íntima/sumisa con tintes sexuales".

A veces la gente coquetea sin darse cuenta de que las asistentes son simples programas. A veces, como ocurre con la nueva herramienta M Messenger de Facebook, un humano hace parte del trabajo. Aunque Amy, la robot programadora de citas de x.ai, es alegre y amistosa, siempre se comporta de forma profesional. Eso no ha impedido que la gente le envíe flores, chocolates y botellas de whisky. Un usuario incluso la invitó a salir (Amy se negó).

Una forma inteligente de aprender a lidiar con el acoso es hablar con asistentes reales, cosa que Microsoft hizo con Cortana. Después de todo, han soportado conductas similares durante años.

Fuente : CNN
« Última modificación: Febrero 20, 2016, 12:37:24 am por S@nde »

Desconectado Yavi

  • *
  • Underc0der
  • Mensajes: 170
  • Actividad:
    0%
  • Reputación 0
  • Es como una pagina redirigiendose a si misma
    • Ver Perfil
    • Email
  • Skype: yavios@hotmail.com
  • Twitter: @YaviOS64
« Respuesta #5 en: Febrero 20, 2016, 01:00:15 am »
a parte del chiste del jaguar  ;D

Pues al tratarse de una asistente que es virtual y es mujer, a muchos se le va la mano y quieren probar los limites. Aunque, no se si un asistente virtual deba tener los mismo defectos de una personas normal, pero bueno.
"Eso es lo bueno de internet. De que sirve internet si chateas con tus vecinos??? para eso te sacas unas sillas al fresco y hablais y jugais a las cartas". @windux

Desconectado Denisse

  • *
  • Moderator
  • Mensajes: 269
  • Actividad:
    10%
  • Reputación 10
    • Ver Perfil
« Respuesta #6 en: Febrero 20, 2016, 01:30:44 am »
@You are not allowed to view links. Register or Login con respecto a Siri solo encontré que el tema que evadía era el Aborto,  cuando se le solicitaba buscará clínicas donde practicaran abortos,  Siri respondía, con ubicaciones de lugares para adoptar bebés,  a lo cual muchos extendieron sus quejas,  porque Siri no respondía lo que se le solicitaba, dando pie a que decidieran cambiar el algoritmo de Siri para mostrar resultados precisos en cuanto al aborto.


 Hola @You are not allowed to view links. Register or Login una pregunta :D ¿que pasaría si Cortana reaccionara enamorándose (como en la película Her) del usuario,  respondiendo a las "propuestas tanto amorosas como indecorosas" ?

Desconectado Yavi

  • *
  • Underc0der
  • Mensajes: 170
  • Actividad:
    0%
  • Reputación 0
  • Es como una pagina redirigiendose a si misma
    • Ver Perfil
    • Email
  • Skype: yavios@hotmail.com
  • Twitter: @YaviOS64
« Respuesta #7 en: Febrero 23, 2016, 01:36:31 am »
You are not allowed to view links. Register or Login
@You are not allowed to view links. Register or Login con respecto a Siri solo encontré que el tema que evadía era el Aborto,  cuando se le solicitaba buscará clínicas donde practicaran abortos,  Siri respondía, con ubicaciones de lugares para adoptar bebés,  a lo cual muchos extendieron sus quejas,  porque Siri no respondía lo que se le solicitaba, dando pie a que decidieran cambiar el algoritmo de Siri para mostrar resultados precisos en cuanto al aborto.


 Hola @You are not allowed to view links. Register or Login una pregunta :D ¿que pasaría si Cortana reaccionara enamorándose (como en la película Her) del usuario,  respondiendo a las "propuestas tanto amorosas como indecorosas" ?

Pues, comenzando con darle inteligencia a un robot, que trata de responder adecuadamente al usuario, no se sabe. Ya el sistema tendría que tener inteligencia artificial propia auto-alimentable, y luego entender que es enamorarse si se quiere cuestionar a la acción: el sistema se enamoró del usuario. Pero si su función es responder a lo que el usuario le pregunta y generar reglas sobre la marcha de cuál es la mejor forma de responder, no se podría decir que el sistema está enamorado. Después de todo, no me he visto esa película. @S@nder
"Eso es lo bueno de internet. De que sirve internet si chateas con tus vecinos??? para eso te sacas unas sillas al fresco y hablais y jugais a las cartas". @windux

Desconectado Nobody

  • *
  • Underc0der
  • Mensajes: 196
  • Actividad:
    8.33%
  • Reputación 4
  • Security as art.
    • Ver Perfil
    • Nobody Test Laboratory
  • Twitter: @n0bodysec
« Respuesta #8 en: Febrero 24, 2016, 08:45:39 am »
¿Quién está tan necesitado para acosar a Cortana? xD

No lo se, aguante Google Now (? jaja

Saludos!
You are not allowed to view links. Register or Login

 

¿Te gustó el post? COMPARTILO!



Realidad Virtual & Realidad Aumentada ¿Perjudicial para nuestra salud?

Iniciado por CNait

Respuestas: 0
Vistas: 1037
Último mensaje Octubre 23, 2016, 08:35:18 am
por CNait
Virtual Box VS VMware

Iniciado por Vasyyyl

Respuestas: 37
Vistas: 10646
Último mensaje Mayo 22, 2017, 03:49:21 pm
por oachfal