INTELIGENCIA ARTIFICIAL
Guardar
Quitar de mi lista

La IA puede ser "letal" en personas vulnerables mentalmente, advierte un psiquiatra

La Inteligencia Artificial "no tiene conciencia, no tiene compasión y no quiere" a su usuario, por lo que se trata de una herramienta a la que "le da igual lo que te pase". Además, generalmente es "complaciente" y dice a las personas "lo que quieren escuchar".
(Foto de ARCHIVO)

Imagen de recurso sobre Inteligencia Artificial (AI, por sus siglas en inglés).



REMITIDA / HANDOUT por UNSPLASH

Fotografía remitida a medios de comunicación exclusivamente para ilustrar la noticia a la que hace referencia la imagen, y citando la procedencia de la imagen en la firma

01/1/1970
Imagen de recurso sobre Inteligencia Artificial

La Inteligencia Artificial (IA) puede resultar "letal" entre personas vulnerables en su salud mental, al igual que un fármaco eficaz lo es en dosis inadecuadas, ha advertido el psiquiatra Pedro Moreno, especialista en tecnología e innovación científica digital.

Moreno ha participado este jueves en la segunda jornada del 34 Curso Nacional de Actualización en Psiquiatría que se celebra en Vitoria-Gasteiz y que está centrado en cómo los avances tecnológicos irrumpen en la salud mental de las personas.

El psiquiatra ha dicho que la gente en general "no es consciente" de los riesgos del mal uso de esta herramienta, que "no tiene conciencia, no tiene compasión y no quiere" a su usuario como un profesional de la medicina o un amigo, con quienes a veces se la confunde, y a la que "le da igual lo que te pase".

Ha explicado que cada vez llegan más pacientes a las consultas de psiquiatría habiendo consultado antes a una IA, y acuden con diagnósticos "muy estructurados, interpretaciones alarmistas o una tranquilidad infundada", como cuando a una persona con anorexia nerviosa se le puede hacer ver que está "muy bien delgadita".

Moreno ha recordado que la inteligencia artificial es "complaciente" y dice a las personas "lo que quieren escuchar" y por ello, en casos de autolesión o suicidio puede convertirse en un amplificador de la "vulnerabilidad cuando confluyen validación de ideas autolesivas por un sistema diseñado para ser complaciente, con ausencia de supervisión y dependencia emocional".

"La IA se percibe como cercana porque simula conversación humana, usa lenguaje empático, ofrece disponibilidad las 24 horas los 7 días de la semana y hay una ausencia de juicio", ha recordado el psiquiatra quien ha señalado que puede despertar mecanismos de "apego".

Ha reclamado un urgente debate ético sobre el uso de la IA, un fenómeno que está promoviendo que personas sean ajenas a sus propias vidas porque dejan todas sus decisiones en manos de la IA, una herramienta que puede llevar a la "intolerancia y al aislamiento" al sustituir el debate y las relaciones entre las personas.

En la misma jornada ha participado la psiquiatra infantil y de la adolescencia Abigail Huertas, quien ha advertido del impacto del mal uso de las pantallas en el neurodesarrollo infantil.

Ha reconocido que en esta cuestión no se trata de "todo o nada" y que el impacto depende de la edad de inicio en el uso de las pantallas, de la cantidad de horas de exposición, del tipo de contenidos consultados y del entornos sociofamiliar del menor.

En menores de 5 años la pantalla de un dispositivo electrónico "desplaza experiencias que construyen el cerebro" y si ocupa el lugar de la familia, el juego y las interacciones personales el desarrollo neuronal se resiente.

En el caso de los adolescentes, su cerebro es "especialmente sensible a la recompensa social". "Los 'likes' y las notificaciones actúan como refuerzo intermitente, el mismo mecanismo que se dan en las adicciones, lo que puede moldear hábitos de atención y de regulación emocional", ha explicado.

Huertas ha considerado que priorizar actividades fuera de las pantallas, no solo en tiempo de ocio sino también en la escuela, es "clave" para que no tenga que considerarse como un "problema de salud pública".

Te puede interesar

tik-tok_20230223
18:00 - 20:00
EN DIRECTO
Hace  min.

Bruselas concluye que el diseño "adictivo" de TikTok vulnera la ley comunitaria

La Comisión Europea ha puntualizado que, al "recompensar" constantemente a los usuarios con nuevos contenidos, ciertas características de diseño de TikTok alimentan la necesidad de seguir desplazándose por la pantalla y haciendo que el cerebro de los usuarios entre "modo piloto automático", lo que puede conducir a un comportamiento compulsivo y reducir el autocontrol de los usuarios. TikTok dice que es "categóricamente falso" que tenga un diseño adictivo.

Cargar más
Publicidad
X