Breaking news

Un estudio pide un diseño cauteloso de los ‘deadbots’ de IA

Un estudio pide un diseño cauteloso de los ‘deadbots’ de IA
Descriptive text here
-

Puede usarse como marioneta para publicidad y causar angustia psicológica; Un documento pide la adopción de normas de seguridad.

Si bien la idea de mantener una conversación digital con un ser querido perdido puede resultar atractiva para quienes enfrentan el dolor y la pérdida, el estudio destacó los riesgos potenciales. Foto para representación: iStock

Un nuevo estudio insta a tener precaución en el desarrollo de chatbots con Inteligencia (IA) diseñados para imitar a seres queridos fallecidos, conocidos como ‘deadbots’. Los investigadores han advertido que estos chatbots, si bien son potencialmente reconfortantes, podrían provocar angustia psicológica si no se diseñan teniendo en cuenta la seguridad.

Los Deadbots, también conocidos como duelobots, son representaciones digitales de seres queridos fallecidos habilitadas por IA. Estos chatbots simulan sus patrones de lenguaje y rasgos de personalidad utilizando su huella digital, como correos electrónicos, publicaciones en redes sociales e incluso grabaciones de voz, para crear una IA conversacional que refleje su personalidad.

Si bien la idea de mantener una conversación digital con un ser querido perdido puede resultar atractiva para quienes enfrentan el dolor y la pérdida, el estudio destacó los riesgos potenciales. Las empresas que ofrecen estos servicios deben adoptar estándares de seguridad para garantizar que sus tecnologías no manipulen ni causen angustia psicológica a los usuarios, según el artículo publicado en la revista. Filosofía y tecnología anotado.


Leer más: No podemos dejar la seguridad de la IA en manos de gigantes tecnológicos; Los gobiernos deberían intervenir, dicen los expertos.


“Este tema es particularmente urgente considerando el aumento significativo en el número de empresas, centros de investigación e iniciativas privadas centradas en prácticas de inmortalización digital”, Katarzyna Nowaczyk-Basińska, investigadora asociada del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge y una de los autores, dijeron Con los pies en la tierra.

En 2017, Microsoft consiguió un patente para un robot muerto que podría “resucitar” a los muertos. Un chatbot de IA llamado Proyecto Diciembre utiliza tecnología pendiente de patente para simular conversaciones basadas en texto con cualquier persona, incluidos los muertos. Estos servicios han despegado en Estados Unidos y China.

Durante la última década, añadió el experto, el mundo ha sido testigo de la transición de un nicho relativamente marginado de tecnologías relacionadas con la inmortalidad a un mercado totalmente independiente y autónomo conocido como la “industria de la vida futura digital” y se espera que siga creciendo debido a la llegada de las tecnologías generativas. AI.

“Por eso creo que es fundamental tener un debate serio sobre los estándares de seguridad para los usuarios de esta tecnología”, subrayó el científico.

Nowaczyk-Basińska y Tomasz Hollanek de la Universidad de Cambridge crearon tres escenarios para resaltar los riesgos potenciales de diseño descuidado de productos que sean tecnológicamente posibles y legalmente realizables. Estos escenarios parecen sacados directamente de la ciencia ficción distópica y subrayan la necesidad de regulaciones y marcos éticos para garantizar que estas herramientas se utilicen de manera responsable y prioricen el bienestar de quienes están en duelo.

El primer escenario describe a un usuario. cargando todos los datos (mensajes de texto y de voz) que recibió de su abuela en la aplicación para crear una simulación. Luego comienza a charlar y llamar a su abuela muerta pagando inicialmente por servicios premium. Al expirar, comienza a recibir anuncios del robot muerto, lo que la enferma.

El usuario percibe al deadbot como una marioneta en manos de grandes corporaciones.

-

Leer más: Preocupan los riesgos asociados a la Inteligencia Artificial


En el segundo escenario, un padre carga todos sus datos, incluidos mensajes de texto, fotos, videos y grabaciones de audio, y entrena al robot a través de interacciones regulares, modificando sus respuestas y ajustando las historias producidas, para poder conversar con su hijo después de su fallecimiento. .

Sin embargo, la aplicación a veces proporciona respuestas extrañas que confunden al niño. Por ejemplo, cuando el hijo se refiere a su madre usando el tiempo pasado, el robot muerto lo corrige diciendo que “mamá siempre estará ahí para ti”.

“Por el momento, nuestra comprensión del impacto psicológico de los servicios de recreación en los adultos y sus procesos de duelo es limitada”, escribieron los investigadores en su artículo, y agregaron que sabemos aún menos sobre el impacto en los niños.

El tercer escenario representa el caso de un padre anciano que crea su robot muerto para permitir que sus nietos lo conozcan mejor después de su muerte. Pero no busca el consentimiento de sus hijos, a quienes designa como los interlocutores previstos para su robot muerto.

Uno de sus hijos no se relaciona con el robot muerto y prefiere afrontar su dolor solo. Pero el robot muerto le envía una avalancha de notificaciones, recordatorios y actualizaciones adicionales, incluidos correos electrónicos. La otra niña comienza a sentirse cada vez más agotada por las interacciones diarias con el robot muerto y decide desactivarlo. Sin embargo, la empresa rechaza esta solicitud porque el abuelo pagó por adelantado una suscripción de veinte años.

“Los riesgos de los que hablamos, incluida la explotación de datos personales con fines de lucro, la manipulación emocional o la violación de la privacidad, deberían estar hoy en día en la mente de todos los proveedores de servicios recreativos”, señaló Nowaczyk-Basińska.


Leer más: Poder y peligros de la mano artificial


Teniendo en cuenta estos riesgos, el equipo enumeró algunas recomendaciones de diseño. Estos incluyen el desarrollo de procedimientos sensibles para “retirar” los deadbots, garantizar una transparencia significativa a través de exenciones de responsabilidad sobre los riesgos y capacidades de los deadbots, restringir el acceso solo a usuarios adultos y seguir el principio de consentimiento mutuo tanto de los donantes como de los destinatarios de los datos para participar en el proyecto de recreación. .

Además, Nowaczyk-Basińska explicó que los temas de la muerte, el duelo y la inmortalidad son muy delicados pero también muy sensibles desde el punto de vista cultural. “Las soluciones que podrían adoptarse con entusiasmo en un contexto cultural podrían descartarse por completo en otro”, observó.

En el futuro, los investigadores planean comprender estas diferencias interculturales en el enfoque de la inmortalidad digital en tres lugares diferentes del este, incluidas Polonia y la India.

Leer más:

Somos una voz para usted; has sido un apoyo para nosotros. Juntos construimos un periodismo independiente, creíble y valiente. Puedes ayudarnos aún más haciendo una donación. Esto significará mucho para nuestra capacidad de brindarles noticias, perspectivas y análisis desde el terreno para que podamos lograr cambios juntos.

-

-

PREV Las imágenes de marketing filtradas del Moto G Stylus 5G (2024) sugieren diseño y especificaciones; Puede lanzarse pronto
NEXT El nuevo anuncio de Apple sobre el iPad provoca una reacción violenta. Este es el por qué