4 actividades de servicios financieros humanos que la IA no puede realizar.
- armando bienestar
- 19 ago
- 5 Min. de lectura

Por qué es importante
Así como los cajeros automáticos no eliminaron a los cajeros bancarios, los modelos de inteligencia artificial no eliminarán los roles de los servicios financieros de cara al cliente.
En 2024, la empresa fintech Klarna causó sensación al anunciar su intención de reducir su plantilla en casi un 50% y poner a su chatbot de IA a cargo del 75% de las interacciones de atención al cliente . El director ejecutivo, Sebastián Siemiatkowski, se jactó de que el chatbot realizaba el trabajo de 700 empleados y estaba a punto de aumentar las ganancias en 40 millones de dólares.
La empresa sueca, especializada en planes de "compra ahora, paga después", ha dado marcha atrás. En mayo, Klarna anunció que levantaba la congelación de contrataciones vigente durante aproximadamente 18 meses y que buscaba personal para puestos de atención al cliente .
"Desde una perspectiva de marca, desde una perspectiva de empresa, es fundamental dejarle claro a su cliente que siempre habrá un ser humano disponible si así lo desea", dijo Siemiatkowski a Bloomberg News .
Este desarrollo no sorprende a la investigadora postdoctoral asociada de MIT Sloan, Isabella Loaiza , quien estudia cómo la IA complementa a los trabajadores humanos en el mercado laboral.
“Cuando la gente habla de dinero y se siente frustrada, quiere hablar con una persona”, dijo. Según se informa, el modelo de IA de Klarna se apegó a su guión, tuvo dificultades para comprender los matices de la atención al cliente y dejó a los clientes frustrados.
El año pasado, Loaiza y el profesor Roberto Rigobon del MIT Sloan identificaron cinco conjuntos de atributos humanos que la IA no puede proporcionar , encapsulados en el acrónimo EPOCH 1 :
Empatía e inteligencia emocional,
Presencia , redes y conectividad,
Opinión , juicio y ética,
Creatividad e imaginación,
Esperanza , visión y liderazgo.
1: Esperanza = Hope en inglés.
Ahora han publicado “Los límites de la IA en los servicios financieros”, una investigación que analiza más de cerca la industria de servicios financieros y explica por qué empresas como Klarna, que apostaron fuerte por la IA, harían bien en pensar en cómo la IA puede redefinir empleos en lugar de eliminarlos.
Una industria familiarizada con la tecnología disruptiva.
Hace décadas, los analistas del sector predijeron que los cajeros automáticos reemplazarían por completo a los cajeros bancarios; al final, simplemente asumieron la parte más monótona de su trabajo . En lugar de depositar y retirar dinero, los cajeros pudieron brindar una atención al cliente más directa.
Hoy en día, los servicios financieros utilizan con éxito modelos de IA para predecir las necesidades de liquidez, evaluar el riesgo crediticio, gestionar las fluctuaciones del mercado, ejecutar operaciones, detectar fraudes y proporcionar análisis en tiempo real de las carteras de clientes. Sin embargo, al igual que con los cajeros automáticos, existen tareas para las que los modelos de IA no pueden ser un sustituto completo.
Si bien la IA puede poner a los trabajadores en riesgo de ser reemplazados, Loaiza y Rigobon descubrieron que las tareas que más dependen de los atributos de EPOCH eran las menos propensas a ser automatizadas. En los servicios financieros, la mayoría de estas tareas irremplazables están relacionadas con la construcción de relaciones con los clientes.
Los 4 rasgos financieros que la IA no puede reemplazar.
CONFIANZA. “Necesitas que la gente esté dispuesta a confiar en ti para que les des su dinero, que confíe en que tendrán acceso a las herramientas financieras adecuadas”, dijo Loaiza.
En su artículo, los investigadores profundizan en el papel de la confianza: «Delegar la inversión de depósitos y ahorros a una institución es el acto de confianza definitivo, y es concebible argumentar que toda crisis financiera, en última instancia, implica una violación de la confianza». Un agente de IA puede ofrecer una experiencia positiva al cliente, pero no puede generar plena confianza hasta que pueda garantizar que la información de un cliente no se utilizará en su contra, argumentan.
INCLUSIÓN. Garantizar que las personas de comunidades marginadas o desfavorecidas tengan acceso a servicios financieros asequibles y adecuados «es un ejemplo de los graves fallos de los algoritmos de IA», escriben los autores.
Hay dos razones para esto. Una es que los datos sobre las personas excluidas del sistema financiero simplemente no están disponibles para fundamentar los modelos de IA.
La otra, según Loaiza, es que las máquinas no son buenas para tomar decisiones basadas en principios, como ampliar el acceso a préstamos hipotecarios y otros servicios en comunidades marginadas, cuando «no hay antecedentes que demuestren que sea una buena idea». (Para ampliar la analogía, Loaiza añadió que habría sido improbable que los modelos de IA aprobaran conceder el derecho al voto a las mujeres, ya que no habría precedentes en el conjunto de datos).
INNOVACIÓN. Gracias a los gemelos digitales y otros tipos de simulaciones, la IA puede realizar ensayos de prueba y error mejor, más rápido y de forma más económica que los humanos.
Al mismo tiempo, la innovación tiene un propósito y un carácter aleatorio, que consiste en «tener la capacidad de producir algo nuevo, algo que se aleja de los datos que hemos observado», escriben los investigadores. Los fondos cotizados en bolsa (ETF) son un ejemplo de innovación financiera generada por el ser humano.
Este concepto está estrechamente vinculado a la inclusión, afirmó Loaiza. Parte de ello radica en reconocer que el statu quo puede no satisfacer las necesidades financieras de todos, por ejemplo, cuando limita el acceso a productos y servicios.
También existe la capacidad humana de reconocer cuándo algo nuevo podría no ser adecuado. Loaiza mencionó la controversia en torno a Worldcoin , que ofrecía criptomonedas principalmente a personas en zonas subdesarrolladas a cambio de sus datos biométricos.
“Puedes tener un buen propósito, pero podrías estar haciendo daño si priorizas la tecnología en lugar de a los humanos”, dijo Loaiza. El modelado de IA puede servir como herramienta para desarrollar este tipo de innovación, pero la ética subyacente debe mantenerse dentro del ámbito de la responsabilidad humana.
EXPERIENCIA DEL CLIENTE. Para los clientes, construir una relación de confianza con una empresa se centra menos en las respuestas que reciben y más en la experiencia de interactuar con las personas que trabajan allí.
Dicho de otra manera, según el artículo, “solo en pequeñas cantidades confiamos en un cuadro de chat”.
Cuando las personas quieren saber qué pasará con el dinero que gestionan a una entidad financiera, llaman a su asesor. (Lo mismo ocurre en otros ámbitos, señalan los autores: cuando tienen preguntas médicas o legales complejas, llaman a un médico o abogado).
Aquí, los atributos EPOCH entran en juego no solo por la importancia de la empatía, el juicio, la ética, la esperanza, etc., sino porque los modelos de IA funcionan mejor cuando el presente se asemeja al pasado, señaló Loaiza. Esa dependencia de precedentes puede suponer un desafío cuando los mercados financieros son inciertos y los clientes buscan tranquilidad.
“Veo el valor de usar algoritmos para el comercio”, dijo Loaiza, “pero para otros elementos de la industria financiera, todavía necesitamos las capacidades humanas”.
Fuente: MIT Management Sloan School, Brian Eastwood
Comentarios