Según investigadores de la Universidad de Cambridge , la inteligencia artificial que permite a los usuarios mantener conversaciones de texto y de voz con seres queridos perdidos corre el riesgo de causar daño psicológico e incluso “perseguir” digitalmente a quienes se quedan atrás sin estándares de seguridad de diseño.
Introducción:
La investigación llevada a cabo por expertos de la Universidad de Cambridge despierta una alarma crucial sobre los riesgos psicológicos asociados con el uso de inteligencia artificial (IA) para recrear interacciones con seres queridos fallecidos. Su análisis subraya la importancia de abordar la seguridad y ética en el diseño de estas tecnologías emergentes, ante el potencial impacto negativo que pueden tener en la salud mental y emocional de las personas.
Puede leer también | Apple está desarrollando un nuevo chip para centros de datos de inteligencia artificial
Deadbots y la Industria de la Vida Digital:
Los 'Deadbots' o 'Griefbots' representan un nuevo avance en el campo de la IA, donde estos chatbots pueden simular conversaciones y comportamientos basados en datos recopilados de personas fallecidas. Este fenómeno ha dado lugar a una incipiente "industria de la vida digital", donde empresas ofrecen servicios para recrear la presencia de seres queridos después de su fallecimiento, a través de interacciones digitales.
Puede leer también | Los teléfonos son el pináculo de la inteligencia artificial
Escenarios de Riesgo:
-
Uso Inapropiado de Deadbots: Además del riesgo evidente de manipulación emocional, existe la preocupación de que estas recreaciones sean utilizadas con fines comerciales, como publicidad engañosa, o para generar angustia al enviar interacciones no solicitadas a familiares y amigos.
-
Visualización de Escenarios Hipotéticos:
- MaNana: Ilustra cómo la falta de consentimiento del fallecido puede dar lugar a situaciones éticamente cuestionables, donde las recreaciones digitales se utilizan sin considerar las preferencias del difunto.
- Parent't: Destaca el impacto emocional en los niños que interactúan con estas IA, y cómo su uso puede tener repercusiones no previstas en el proceso de duelo.
- Stay: Presenta un escenario complejo donde los contratos preexistentes pueden obstaculizar la capacidad de los familiares para suspender las interacciones con los Deadbots, incluso cuando estas se vuelven perjudiciales.
Puede leer también | Las ganancias de Amazon se enfocarán en inteligencia artificial
Problemas Éticos y Recomendaciones:
- Los investigadores enfatizan la necesidad de diseñar protocolos que salvaguarden la dignidad y los derechos tanto de los fallecidos como de sus familias, priorizando el consentimiento informado y el respeto hacia su memoria.
- Sugieren la implementación de restricciones de edad para los usuarios y una transparencia significativa para garantizar que se reconozca la naturaleza artificial de las interacciones.
- Se destaca la importancia de los protocolos de exclusión voluntaria para permitir un cierre emocional adecuado para los usuarios potenciales.
Puede leer también | La Inteligencia Artificial: Un Legado que se Remonta al Pasado.
Conclusión:
A medida que la tecnología continúa avanzando, es fundamental abordar los desafíos éticos asociados con la recreación digital de seres queridos fallecidos. Los investigadores instan a la industria y a los responsables de políticas a tomar medidas proactivas para mitigar los riesgos psicológicos y sociales de estas tecnologías emergentes, garantizando que se respeten los derechos y la dignidad de todas las partes involucradas.