En 2018 un pasajero de nombre David Dao de profesion médico fue agresivamente desocupado de su asiento en un vuelo para que un piloto de la compañia llegue a otro destino, hubo mucha reprecusión por el maltrato recibido, pero las reales críticas llegaron cuando se abordaba un asunto crucial: ¿cómo se había determinado que fuera Dao quien cediera su lugar en el vuelo?
La necesidad de remover a Dao fue decidida por una máquina. Más específicamente, por un software que probablemente ya había marcado al doctor mucho antes de que éste pusiera un pie en el aeropuerto.
Este es sólo un ejemplo de cómo esos algoritmos están -de manera invisible y detrás de escena- tomando decisiones que afectan nuestras vidas.
Y no hablamos de los algoritmos de Google, Facebook o Netflix, que nos filtran lo que vemos o nos ofrecen sugerencias a partir de nuestras selecciones previas: a diferencia de estos, hay algoritmos que no están directamente relacionados con nuestras acciones.
1. La inteligencia artificial decide si vas a tener un trabajo o no
Las hojas de vida o currículums ahora son más propensos a ser descartados sin siquiera pasar por las manos y la vista de un ser humano.
Eso es porque cada día las compañías de selección de personal están adoptando programas de Sistemas de Seguimiento a Candidatos que manejan los procesos de reclutamiento, especialmente el análisis de cientos (o miles) de solicitudes iniciales.
En EE.UU. se estima que el 70% de las solicitudes de empleo son filtradas antes de ser analizadas por humanos.
Para las compañías, esto permite ahorrar tiempo y dinero en el proceso de contratación de nuevos empleados.
Sin embargo, este sistema ha generado cuestionamientos sobre la neutralidad de los algoritmos.
En un artículo de la Harvard Business Review, los académicos Gideon Mann y Cathy O’Neil argumentan que estos programas no están desprovistos de los prejuicios y sesgos propios de los humanos, lo que podría hacer que la inteligencia artificial no sea realmente objetiva.
2. ¿Quieres un préstamo? Tu perfil en las redes sociales puede impedírtelo…
Históricamente, cuando alguien solicitaba un préstamo a una entidad financiera, la respuesta estaba basada en el directo análisis de su capacidad de pago: la proporción de la deuda sobre el ingreso de la persona y el historial crediticio.
Pero ya no es así: la capacidad de pagar un crédito ahora es evaluada por algoritmos que acumulan datos de distintas fuentes, que van desde patrones de compra hasta búsquedas en internet y actividad en redes sociales.
El problema es que ese método no tradicional podría recoger información sin el conocimiento o el visto bueno de los posibles beneficiarios del crédito.
También aquí hay cuestionamientos sobre la transparencia e imparcialidad del proceso.
3. Te puede ayudar a encontrar el amor, pero tal vez no el que estás esperando
No es una sorpresa saber que las aplicaciones de citas en internet usan algoritmos para juntar a las parejas.
De hecho es parte de su discurso para atraer clientes, especialmente con los servicios premium o de pago.
Sin embargo, cómo lo hacen es mucho menos claro.
Especialmente después de que eHarmony, uno de los sitios de citas más exitosos del planeta, revelara el año pasado que ajustaba los perfiles de algunos clientes con la idea de volverlos más «simpáticos» y atractivos.
Eso significa ignorar algunas preferencias de los usuarios, como los «me gusta» y «no me gusta».
Y esto es bastante molesto para la persona que se tomó el tiempo de responder las 400 preguntas que se piden para crear un perfil en eHarmony.
Pero incluso opciones más simples como Tinder, donde las variables son menos (ubicación, edad y preferencias sexuales), no son tan claras o aleatorias.
A cualquiera que use esta aplicación se le asigna una «calificación por atracción» secreta -esto es, cuán «deseable» resulta el candidato-, que es calculada por la compañía con la idea de «facilitar mejores emparejamientos».
La compañía ha mantenido en secreto esta fórmula, pero sus ejecutivos han dado algunas pistas.
Por caso, el número de veces que un usuario es arrastrado hacia la derecha o la izquierda por otros (que es la manera como en Tinder se indica si alguien te gusta o no te gusta) juega un papel muy importante.
4. Un programa puede determinar si eres un adicto o puedes tener un seguro médico
El abuso de opioides -vendidos de forma legal o ilegal- es la principal causa de muertes accidentales en Estados Unidos y los expertos en salud a menudo hablan de una «epidemia» en el consumo.
Para atacar el problema, científicos y autoridades se están uniendo para crear y ejecutar proyectos basados en datos.
Más recientemente, en el estado de Tennessee, el proveedor de seguro médico Blue Cross y la firma tecnológica Fuzzy Logix anunciaron la creación de un algoritmo que analizaba nada menos que 742 variables para evaluar el riesgo de abuso e identificar posibles adictos.
Pero por supuesto que eso elevó una discusión ética: los datos analizados incluyen las historias médicas e incluso la dirección de residencia, de los candidatos.
El argumento a favor señala que este tipo de intervención puede salvar vidas e incluso puede reducir abusos al sistema.
Los adictos a los opioides tienen un 59% más de probabilidades de ser usuarios costosos de servicios médicos.
Los defensores del uso de la inteligencia artificial y los algoritmos en el sector señalan que esto podría ayudar a tomar decisiones y reducir el gasto innecesario generado por errores humanos.
5. Un computador puede enviarte a prisión
Jueces en al menos 10 estados de EE.UU. están dictando sentencia con la ayuda de una herramienta llamada COMPAS.
Es un algoritmo de evaluación de riesgos que puede predecir las probabilidades de que un individuo haya cometido un crimen.
Uno de los casos más famosos que involucra el uso de COMPAS ocurrió en 2013, cuando Eric Loomis fue sentenciado a siete años de prisión por eludir el control policial y manejar un vehículo sin el consentimiento de su dueño.
Al preparar la sentencia, las autoridades locales presentaron una evaluación -basada en una entrevista y en la información sobre sus probabilidades criminales- y Loomis obtuvo una calificación de «alto riesgo de cometer nuevos crímenes».
Sus abogados rechazaron la condena usando distintos argumentos, uno de ellos el hecho de que COMPAS había sido desarrollado por una empresa privada y la información sobre cómo funcionaba el algoritmo nunca había sido revelada.
También reclamaron que los derechos de Loomis habían sido violados, porque la evaluación de riesgo tomó en cuenta información sobre el género y la información racial.
De hecho, un análisis de más de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigación ProPublica mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes.