Mi psicólogo es un chabot
“Los chatbots comerciales son eficientes hasta que las respuestas del interlocutor carecen de cierta lógica”
Como psicólogo se espera de mí que satanice este tipo de asistentes pero… Vamos a analizarlos y sacar alguna conclusión interesante.
El interés por crear IA’s capaces de conversar se remonta prácticamente a los orígenes de la computación a mediados del siglo pasado, de hecho existe una competición, la Loebner Price, en la que diversos robots compiten por superar el llamado “Test de Turing” de los cinco minutos, en las que un humano conversa con otro humano y un robot. Si el interlocutor no distingue el robot del humano en cinco minutos el test se considera superado. Esto no ha sucedido hasta 2014.
Desde la Eliza de 1966, primera psicóloga virtual (si, si, 1966), que tenía respuestas prediseñadas (unas 200) pasando por Alicebot (1995, 40000 campos de conocimiento) hasta los modernos chatbots, como puede ser el Sentinobot (Sentino, 2018), la psicología ha servido de banco de desarrollo dentro de este campo y para todo tipo de productos, comerciales y asistentes virtuales.
“la psicología ha servido de banco de desarrollo dentro de este campo y para todo tipo de productos, comerciales y asistentes virtuales.”
Siri, Google Assistant, Cortana o Watson son todos un ejemplo comercial de estos agentes conversacionales. De hecho, muchas páginas implementan un asistente virtual que cada vez es más completo, por ejemplo, Irene de Renfe.
El Sentinobot de 2018 evalúa extroversión, responsabilidad, amabilidad, neuroticismo y apertura a la experiencia, aunque no ha sido evaluado científicamente y su presentación no es “humana”. Sin embargo el Woebot de 2017 es un agente conversacional que si ha sido testado ¡Atención! De un grupo de 70 alumnos con síntomas de depresión mejoraron más los tratados por el chatbot que los que solo recibieron información sobre la depresión.
“De un grupo de 70 alumnos con síntomas de depresión mejoraron más los tratados por el chatbot que los que solo recibieron información sobre la depresión”
Seamos sinceros, un chatbot, aunque su IA tenga un aprendizaje geométrico, no puede crear los lazos empáticos necesarios para llevar a cabo una terapia o un acompañamiento. Una terapia requiere un conocimiento del paciente a varios niveles que, por el momento, y digo por el momento, un chatbot no puede alcanzar.
“Una terapia requiere un conocimiento del paciente a varios niveles que, por el momento, y digo por el momento, un chatbot no puede alcanzar.”
Aun así, los resultados del estudio antes referido son interesantes, que no inquietantes. Sitúa al chatbot en un nivel bajo de evaluación y/o intervención pero no deja de tener su utilidad. El que un paciente haya mejorado no implica que el trastorno haya desaparecido. La lógica y los procesos “cibernéticos” de una máquina no pueden alcanzar los de un avezado profesional de la salud mental (por el momento).
En contra de lo manifestado por sus detractores, la terapia online es efectiva y accesible cuando se realiza con un profesional, pero la pléyade de chatbots emocionales que circulan por la red o en forma de App (Ejemplo de Yana) tienen un recorrido limitado. Cierto es que el coste es reducido y la disponibilidad es 24/7, es decir, siempre, además de no existir barreras sociales para su empleo, muy útil para ciertos trastornos, pero pueden ofrecer una, vamos a decirlo, atención primaria. No estoy diciendo que sea un gasto inútil o que no sirven para nada, en absoluto, de hecho emplea ciertas técnicas que podríamos calificar de útiles y, en algunas aseguradoras, su papel de filtro evaluador se ha vuelto trascendente. Muchos (miles) son los pacientes atendidos por un chatbot, pero para establecer unos primeros parámetros o un triage psicológico.
“En contra de lo manifestado por sus detractores, la terapia online es efectiva y accesible cuando se realiza con un profesional ”
Vamos, qué si, que algún día vamos a ser sustituidos por chatbots capaces de empatizar, analizar de forma individualizada y aplicar las técnicas adecuadas, pero hoy no…