Gazette
Oficial
$ 1436,18
0,75%
Blue
$ 1415,00
1,07%
MEP
$ 1437,53
0,30%
CCL
$ 1479,10
0,80%
Risk
575
5,31%%

"La intención y el deseo hacen que la conversación humana sea ireemplazable en términos de sentido"

hace mucho en clarin.com por Clarin.com - Home

Para disfrutar los contenidos de Clarín es necesario que actives JavaScript en tu navegador.

"La intención y el deseo hacen que la conversación humana sea ireemplazable en términos de sentido"

El debate en torno a los efectos de la irrupción de la Inteligencia Artificial (IA) sigue extendiendo su alcance. Son, de hecho, cada vez más los ámbitos alcanzados, y el de la salud mental no es la excepción. En este sentido, el arco es grande: desde quienes usan un chatbot como psicólogo o para pedirle consejos de la vida cotidiana, hasta personas que comparten sentimientos, sensaciones o pensamientos que pueden resultar peligrosos para los demás o para sí mismos.

Como el caso de Adam Raine, un joven de 16 años que se suicidó, y no solo compartió sus intenciones durante meses con chatGPT, sino que este le dio herramientas para que pudiera llevarlo a cabo. Hoy su familia demanda a Open IA. Lejos de una postura apocalíptica, el psiquiatra Pablo Castañón problematiza los límites y los alcances de estas tecnologías, sin dejar de lado la autocrítica hacia su propio campo profesional.

— ¿Qué crees que impulsa a las personas a compartir su intimidad con la IA? ¿Por qué podría ser más deseable que hablar con una persona?

— Creo que hay una doble causalidad. Por un lado, el avance de las prestaciones que ofrecen los chatbots, las distintas subespecialidades que van apareciendo, así como la creciente accesibilidad; hace que cada vez los modelos se especialicen más, sean más rápidos, más capaces, como por ejemplo el hecho de que tengan memoria. Se incrementa el abanico de opciones para la persona que quiera hacerlo. Por otro lado, hay una realidad respecto de los profesionales de carne y hueso, no solo psiquiatras, sino también psicólogos; que muchas veces no damos servicios humanos, porque los atendemos rápido, casi como un chat. Y si un paciente nos dice que no puede dormir, y quiere contar su problema desde las entrañas, y el profesional no tiene tiempo y lo despacha recetándole una pastilla... El chat no te juzga, no te trata mal. Se arma una especie de eclipse que favorece estas tendencias.

— Yendo a cuestiones menores, como qué hacer en tal o cual situación, ¿por qué crees que emerge como una instancia superadora a una conversación con un par, como un amigo?

— Para pensar esto quiero que quede clara una diferencia. La IA es un modelo estadístico, una especie de máquina que busca y compara palabras, con cada vez más funciones: puede buscar por muchas capas, contemplar tantas respuestas que se va corrigiendo a sí mismo. Frente a eso, el cerebro, además de hacer lo mismo con su propia información, hace algo que es distinto: buscar sentidos. Y al buscar sentidos tiene intereses, que muchas veces son racionales y muchas veces son irracionales. Cuando uno le comenta un problema a la IA, lo que responde es un dispensador de estadísticas. Vos le podés decir que te las arme, que te las redacte como si fuera Cortázar, pero no hay alguien ahí que esté deseando algo. Cuando un nene le cuenta algo al compañerito, el compañerito quiere algo con él: que es la amistad, que le vaya bien, divertirse; o está celoso y quiere que le vaya mal. Pero lo que no falta es una intención. Y esa intención es lo que nos hace humanos, y es lo que hace que la conversación humana sea irreemplazable en términos de sentido.

— Hay demandas por personas, sobre todo jóvenes, que le manifestaron al chat intenciones suicidas, antes de llevarlas a cabo. ¿Qué pasa con la responsabilidad ética y legal de estas plataformas?

— La IA tiene cargados sesgos, porque están intervenidas. Por ejemplo, si yo le consulto “cómo conseguir cocaína en Mar del Plata”, me va a decir que esa búsqueda no la puede realizar. Y cuando alguien hace una pregunta de salud, muchas veces aconseja que hay que consultar a un profesional. Ahora bien, imaginemos que en el momento en el que salió la calculadora científica, el almacenero funde el almacén porque no le dan los números, y después le echa la culpa a la calculadora porque le sumó mal, dice que por eso le pagó mal a los proveedores y quebró. Con esto pasa exactamente lo mismo. Uno tiene que supervisar de alguna manera lo que está haciendo. Te tenés que dar cuenta qué le estás preguntando. Más allá de eso, sí habría que intentar con un grupo de programadores que estos chats hagan advertencias más firmes, o configurarlo de manera tal que si se trata de un menor de 18 años, esté disponible el mail de los padres y dar aviso en caso de haber preguntas de este estilo; pero ese es otro tema.

—¿Puede tener algún uso que consideres válido o beneficioso a nivel salud mental, como ser una compañía?

— No, porque yo quiero que al paciente le vaya bien y se lo hago saber. Y mi cuerpo, mi historia y lo que yo quiero para él es mucho más importante que los datos que yo conozco a la hora de ayudar a una persona. ¿Cuál es la diferencia cuando yo me pongo en contacto con un paciente? En mi mirada el paciente ve que yo estoy buscando que mejore y eso lo siente como ser humano, porque nosotros permanentemente estamos buscando algo, que no son los datos, no es la sabiduría. Yo sé mucho menos que la IA sobre fármacos. Vos le decís, ¿cómo me medico si no me puedo dormir? Y para qué me vas a preguntar a mí si yo me puedo equivocar y la IA no… Pero probablemente no tengas que tomar un fármaco para dormir, y es el ser humano el que te puede decir “pero escuchame una cosa, no es que tenés que tomar un antidepresivo más fuerte. Ya vimos que cuando te juntás con este tipo, siempre terminás con tu autoestima por el piso”. Una máquina nunca lo va a identificar. Entonces, creo que el chat piensa con un prompt, piensa con una entrada y hay cosas que se advierten por el tono de voz, en la mirada: con lo humano. Por eso yo creo que no va a prosperar por este lado. Sí puede reemplazar tareas más mecánicas. Pero una persona, para hablar de sentidos de la vida, necesita hablar con otra persona.

— Sin embargo, muchas personas lo usan diariamente ¿Cuál sería el riesgo, si no se juega a nada peligroso como la vida o un delito?

— Es que el chatGPT es un psicópata. ¿Qué es un psicópata? Es un ser humano que carece totalmente de empatía y solamente busca su propio beneficio en las relaciones. O sea, busca lo útil. Entonces cuando hablas con el chatGPT estás chateando con un psicópata, porque vos le decís” quiero ganar más plata”, y al chat no le importa si tus nenes van a pasar hambre. El chat te va a decir que vendas las joyas de la abuela. Ahora vos me decís, “pero no, a mí me contesta bien, me dice cosas lindas”. Bueno, los psicópatas son exactamente así: encantadores, divinos, buena onda, macanudos, hablan de todo. Igual que estas plataformas.

Pablo Castañón es médico especialista en Psiquiatría con formación en Neuropsiquiatría. Posee una amplia experiencia clínica. Actualmente reside en Mar del Plata, donde se dedica a investigar, difundir información médica y divulgar temas vinculados a la salud mental. Recientemente publicó “La falacia de la química cerebral” (VR editoras).

Ludmila Moscato

Recibí en tu mail todas las noticias, historias y análisis de los periodistas de Clarín

Newsletter Clarín