La compleja matemática de los contrafactuales podría ayudar a Spotify a elegir su próxima canción favorita
Se establece un nuevo tipo de modelo de aprendizaje automático para mejorar la toma de decisiones automatizada en finanzas, atención médica, orientación de anuncios y más.
Un nuevo tipo de modelo de aprendizaje automático creado por un equipo de investigadores de la empresa de transmisión de música Spotify captura por primera vez las matemáticas complejas detrás del análisis contrafactual, una técnica precisa que se puede usar para identificar las causas de eventos pasados y predecir el efectos de los futuros.
El modelo, descrito a principios de este año en la revista científica Nature Machine Intelligence, podría mejorar la precisión de la toma de decisiones automatizada, especialmente las recomendaciones personalizadas, en una variedad de aplicaciones, desde finanzas hasta atención médica.
La idea básica detrás de los contrafactuales es preguntar qué hubiera pasado en una situación si ciertas cosas hubieran sido diferentes. Es como rebobinar el mundo, cambiar algunos detalles cruciales y luego presionar reproducir para ver qué sucede. Ajustando las cosas correctas, es posible separar la causalidad verdadera de la correlación y la coincidencia.
"Comprender la causa y el efecto es muy importante para la toma de decisiones", dice Ciaran Gilligan-Lee, líder del Laboratorio de Investigación de Inferencia Causal en Spotify, quien co-desarrolló el modelo. "Quieres entender qué impacto tendrá en el futuro una decisión que tomes ahora".
En el caso de Spotify, eso podría significar elegir qué canciones mostrarte o cuándo los artistas deberían lanzar un nuevo álbum. Spotify aún no utiliza contrafactuales, dice Gilligan-Lee. "Pero podrían ayudar a responder preguntas con las que nos enfrentamos todos los días".
Los contrafactuales son intuitivos. Las personas a menudo le dan sentido al mundo imaginando cómo se habrían desarrollado las cosas si esto hubiera sucedido en lugar de aquello. Pero son monstruosos puestos en matemáticas.
"Los contrafactuales son objetos estadísticos de aspecto muy extraño", dice Gilligan-Lee. "Son cosas extrañas para contemplar. Estás preguntando la probabilidad de que ocurra algo dado que no ocurrió".
Gilligan-Lee y sus coautores comenzaron a trabajar juntos después de leer sobre el trabajo de cada uno en una historia de MIT Technology Review. Basaron su modelo en un marco teórico para contrafactuales llamado redes gemelas.
Las redes gemelas fueron inventadas en la década de 1990 por los informáticos Andrew Balke y Judea Pearl. En 2011, Pearl ganó el Premio Turing, el Premio Nobel de informática, por su trabajo sobre el razonamiento causal y la inteligencia artificial.
Pearl y Balke usaron redes gemelas para trabajar con un puñado de ejemplos simples, dice Gilligan-Lee. Pero aplicar el marco matemático a casos más grandes y complicados del mundo real a mano es difícil.
Ahí es donde entra en juego el aprendizaje automático. Las redes gemelas tratan los contrafactuales como un par de modelos probabilísticos: uno que representa el mundo real y el otro que representa el ficticio. Los modelos están vinculados de tal manera que el modelo del mundo real restringe el modelo del ficticio, manteniéndolo igual en todos los sentidos excepto en los hechos que desea cambiar.
Gilligan-Lee y sus colegas utilizaron el marco de las redes gemelas como modelo para una red neuronal y luego la entrenaron para hacer predicciones sobre cómo se desarrollarían los eventos en el mundo ficticio. El resultado es un programa de computadora de propósito general para hacer razonamiento contrafáctico. "Le permite responder a cualquier pregunta hipotética sobre un escenario que desee", dice Gilligan-Lee.
El equipo de Spotify probó su modelo utilizando varios estudios de casos del mundo real, incluido uno que analizó la aprobación de crédito en Alemania, otro que analizó un ensayo clínico internacional para medicamentos contra el accidente cerebrovascular y otro que analizó la seguridad del suministro de agua en Kenia.
En 2020, los investigadores investigaron si la instalación de tuberías y contenedores de concreto para proteger los manantiales de la contaminación bacteriana en una región de Kenia reduciría los niveles de diarrea infantil. Encontraron un efecto positivo. Pero debe estar seguro de qué lo causó, dice Gilligan-Lee. Antes de instalar muros de concreto alrededor de los pozos en todo el país, debe estar seguro de que la disminución de la enfermedad fue de hecho causada por esa intervención y no como un efecto secundario de la misma.
Es posible que cuando los investigadores llegaron para hacer el estudio e instalar paredes de concreto alrededor de los pozos, la gente se volvió más consciente de los riesgos del agua contaminada y comenzaron a hervirla en casa. En ese caso, "la educación sería una forma más barata de ampliar la intervención", dice Gilligan-Lee.
Un grupo creciente de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan a los pobres vivienda, empleo y servicios básicos.
Gilligan-Lee y sus colegas analizaron este escenario a través de su modelo, preguntando si los niños que se enfermaron después de beber de un pozo sin protección en el mundo real también se enfermaron después de beber de un pozo protegido en el mundo ficticio. Descubrieron que cambiar solo el detalle de dónde bebía el niño y mantener otras condiciones, como el tratamiento del agua en el hogar, no tuvo un impacto significativo en el resultado, lo que sugiere que los niveles reducidos de diarrea infantil no fueron (directamente) causados por la instalación de tuberías y contenedores de hormigón.
Esto replica el resultado del estudio de 2020, que también utilizó un razonamiento contrafáctico. Pero esos investigadores construyeron a mano un modelo estadístico personalizado solo para hacer esa pregunta, dice Gilligan-Lee. Por el contrario, el modelo de aprendizaje automático del equipo de Spotify tiene un propósito general y se puede usar para hacer múltiples preguntas hipotéticas sobre muchos escenarios diferentes.
Spotify no es la única empresa de tecnología que compite para construir modelos de aprendizaje automático que puedan razonar sobre causa y efecto. En los últimos años, firmas como Meta, Amazon, LinkedIn y el propietario de TikTok, ByteDance, también han comenzado a desarrollar la tecnología.
"El razonamiento causal es fundamental para el aprendizaje automático", dice Nailong Zhang, ingeniero de software de Meta. Meta está utilizando la inferencia causal en un modelo de aprendizaje automático que administra cuántas y qué tipo de notificaciones debe enviar Instagram a sus usuarios para que regresen.
Romila Pradhan, científica de datos de la Universidad de Purdue en Indiana, está utilizando contrafactuales para hacer que la toma de decisiones automatizada sea más transparente. Las organizaciones ahora usan modelos de aprendizaje automático para elegir quién obtiene crédito, trabajo, libertad condicional e incluso vivienda (y quién no). Los reguladores han comenzado a exigir a las organizaciones que expliquen el resultado de muchas de estas decisiones a las personas afectadas por ellas. Pero reconstruir los pasos realizados por un algoritmo complejo es difícil.
Pradhan cree que los contrafactuales pueden ayudar. Supongamos que el modelo de aprendizaje automático de un banco rechaza su solicitud de préstamo y desea saber por qué. Una forma de responder a esa pregunta es con contrafactuales. Dado que la solicitud fue rechazada en el mundo real, ¿habría sido rechazada en un mundo ficticio en el que su historial crediticio fuera diferente? ¿Qué pasaría si tuviera un código postal, trabajo, ingresos, etc., diferente? Desarrollar la capacidad de responder tales preguntas en futuros programas de aprobación de préstamos, dice Pradhan, les daría a los bancos una forma de ofrecer razones a los clientes en lugar de solo un sí o un no.
Los contrafactuales son importantes porque así es como la gente piensa acerca de los diferentes resultados, dice Pradhan: "Son una buena manera de capturar explicaciones".
También pueden ayudar a las empresas a predecir el comportamiento de las personas. Debido a que los contrafactuales permiten inferir lo que podría suceder en una situación particular, no solo en promedio, las plataformas tecnológicas pueden usarlo para encasillar a las personas con más precisión que nunca.
La misma lógica que puede desenredar los efectos del agua sucia o las decisiones de préstamo se puede usar para perfeccionar el impacto de las listas de reproducción de Spotify, las notificaciones de Instagram y la orientación de anuncios. Si reproducimos esta canción, ¿ese usuario la escuchará por más tiempo? Si mostramos esta imagen, ¿seguirá desplazándose esa persona? "Las empresas quieren entender cómo dar recomendaciones a usuarios específicos en lugar de al usuario promedio", dice Gilligan-Lee.
"De repente cambié mi punto de vista sobre si estas cosas van a ser más inteligentes que nosotros".
Hinton hablará en EmTech Digital el miércoles.
ChatGPT ha provocado especulaciones sobre la inteligencia artificial general. Pero la próxima fase real de la IA será en dominios y contextos específicos.
Vea a Hinton hablar con Will Douglas Heaven, editor senior de IA de MIT Technology Review, en EmTech Digital.
Descubra ofertas especiales, noticias destacadas, próximos eventos y más.
¡Gracias por enviar su correo electrónico!
Parece que algo salió mal.
Estamos teniendo problemas para guardar sus preferencias. Intente actualizar esta página y actualícelas una vez más. Si continúa recibiendo este mensaje, comuníquese con nosotros en [email protected] con una lista de boletines que le gustaría recibir.