¿Es aceptable que un robot mienta? Un estudio revela que sí lo es, a veces

Iniciado por AXCESS, Septiembre 07, 2024, 07:23:44 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.


No tienes permitido ver enlaces. Registrate o Entra a tu cuenta

Un nuevo estudio ha demostrado que las personas tolerarán un robot que mienta para no herir los sentimientos de alguien, pero no una máquina que lo haga para manipular.

Según el estudio, las personas generalmente esperan que los robots sigan las mismas reglas morales que ellos cuando se trata de mentir. Por ejemplo, muchos aprobarían que un robot cuidador tranquilizara a una mujer con Alzheimer diciéndole que su difunto esposo pronto volvería a casa.

Este fue uno de los tres escenarios presentados a 500 participantes de la investigación, a quienes se les pidió que calificaran su nivel de comodidad con diferentes formas de comportamiento engañoso de los robots.

En el caso del engaño del estado externo (una mentira sobre el mundo más allá del robot), los participantes lo encontraron justificable porque evitaba que el paciente sufriera un dolor innecesario, priorizando la amabilidad sobre la honestidad.

Sin embargo, fueron menos indulgentes con un robot minorista que fingiera sentir dolor mientras mueve muebles, percibiéndolo como manipulador. Este tipo de engaño del estado superficial implica que un robot exagere sus capacidades.

El tercer escenario cubrió el engaño de estado oculto, donde el diseño de un robot oculta sus capacidades. En este caso, un robot de limpieza estaba grabando en secreto a un visitante, una forma de engaño que los participantes desaprobaron en su mayoría.

Los investigadores seleccionaron estos escenarios para reflejar el uso real de robots en los campos de la medicina, el comercio minorista y la limpieza.

"Quería explorar una faceta poco estudiada de la ética de los robots, para contribuir a nuestra comprensión de la desconfianza hacia las tecnologías emergentes y sus desarrolladores", dijo Andrés Rosero, candidato a doctorado en la Universidad George Mason y autor principal del artículo.

"Con el advenimiento de la IA generativa, sentí que era importante comenzar a examinar posibles casos en los que el diseño antropomórfico y los conjuntos de comportamientos podrían utilizarse para manipular a los usuarios", dijo Rosero.

Llamado a la regulación

Según los investigadores, los participantes podrían justificar los tres tipos de engaño hasta cierto punto. Sin embargo, incluso cuando reconocieron que el robot de limpieza podría estar filmando por razones de seguridad, la mayoría lo consideró inaceptable.

Aproximadamente la mitad de los participantes también consideraron que el engaño estatal superficial (cuando el robot miente sobre sentir dolor) es injustificable. En la mayoría de los casos, tendieron a culpar a los desarrolladores y propietarios de robots por tal comportamiento, no a las propias máquinas.

"Creo que deberíamos preocuparnos por cualquier tecnología que sea capaz de ocultar la verdadera naturaleza de sus capacidades porque podría llevar a que los usuarios sean manipulados por esa tecnología de formas que el usuario (y quizás el desarrollador) nunca pretendieron", dijo Rosero.

"Ya hemos visto ejemplos de empresas que utilizan principios de diseño web y chatbots de IA de formas diseñadas para manipular a los usuarios hacia una determinada acción. Necesitamos regulación para protegernos de estos engaños dañinos", dijo.

El artículo fue publicado en Frontiers in Robotics and AI, una revista revisada por pares:

No tienes permitido ver enlaces. Registrate o Entra a tu cuenta

Fuente:
CyberNews
No tienes permitido ver enlaces. Registrate o Entra a tu cuenta
No tienes permitido ver enlaces. Registrate o Entra a tu cuenta