Desarrollos de la IA que están generando disrupción en los entornos contables

Por Samuel Mantilla – Opacidades, agencia, exactitud, explicabilidad, y representación. Desarrollos de la IA que están generando disrupción en los entornos contables
La IA está generando disrupción en los cimientos de las teorías y prácticas más arraigadas en los entornos contables, no solo en lo relacionado con la contabilidad (como se ha visto en artículos recientes que he publicado en este blog) sino también, y muy importante, los de la auditoría y el aseguramiento.
El análisis de estas cosas no es sencillo porque los contables (incluye los profesionales en ejercicio y sus agremiaciones representativas, pero también los reguladores y emisores de estándares) no están interesados, y porque las publicaciones que se refieren a la IA son innovadoras, complejas y costosas. Pero hay que abordarlas y buscar soluciones efectivas.
Gracias al acceso dado por Machine Intelligence and Normative Theory, Mintlab de la Australian National University, Canberra, Australia, hago una aproximación comparativa entre lo contable y la IA, centrándome en los aspectos disruptivos. Presento esto en cuatro secciones: (1) ¿Hacia nuevas opacidades?; (2) ¿Nueva teoría de la agencia?; (3) ¿Exactitud o explicabilidad?; y (4) Estructuras de representación.
Todo esto tiene una dosis alta de análisis teórico fundamental que deriva en implicaciones prácticas. Ojalá aparezcan verdaderos interesados en ayudar a que los entornos contables avancen en estas cosas, ciertamente bastante lejanas de las ‘actualizaciones’ tributarias y normativas.
¿Hacia nuevas opacidades?
La opacidad (‘cajas negras’) es un problema que cualquier sistema debe eliminar a fin de garantizar su credibilidad y confianza. Esta, es definida como la que una persona del común (‘layperson’) otorga a un ‘experto humano’.
Esto se exige, también, de la IA, aunque se reconoce es un terreno todavía no desarrollado: la IA tiene que dar muchas explicaciones, que por lo pronto no está dando.
A finales del siglo 19 y comienzos del 20, la opacidad de la contabilidad fue eliminada gracias a la auditoría. Se dañó cuando en ‘un mismo profesional’ se juntaron las experticias del contador y del auditor. Ello se complicó cuando se fusionó la auditoría con la consultoría: la confianza y la integridad quedaron ‘vueltas trizas’. Ahora se está complicando aún más por la fusión con la IA y demás tecnologías digitales.
En la búsqueda de transparencia se destacan dos esfuerzos:
- Los estándares internacionales (IFRS y US GAAP) desarrollaron prácticas de revelación [disclosure] ya sea en la cara de los estados financieros o en las notas, un asunto del que se esperan mejores resultados porque no ha sido fácil que lo realmente importante [materiality] sea abordado de manera satisfactoria.
- Los esfuerzos de medición y contabilización de los riesgos y oportunidades asociados con los negocios. En esto se ha avanzado bastante desde la ‘perspectiva financiera’ pero enfrenta el problema de responder a otros riesgos, principalmente los relacionados con sostenibilidad, cambio climático y ESG, algo que a veces avanza y otras veces no, dado que no es sencillo asociar sus métricas (no-financieras) con las mediciones financieras (ya sea a costo histórico y/o a valor razonable).
El 26 de febrero de 2026 Éloïse Boisseau publicó un análisis de estas cosas aplicándolas a la IA. Lleva por título Expertise, opacity, and trust in AI systems [Experticia, opacidad, y confianza en los sistemas de IA]. Su argumento central es que la confianza otorgada a ‘cualquier sistema de IA’ debe ser ‘espejo’ de la otorgada a la que usualmente una persona del común otorga a un experto humano. Usa un lenguaje bastante técnico, lo cual hace que su lectura deba realizarse con mayor cuidado del habitual.
Para los temas contables, lo interesante de este artículo es que utiliza las estructuras y conceptos que generalmente se asocian con la contabilidad y la auditoria, expresados en términos de confianza, verdad y transparencia.
Charudatta Kale abordó estas cosas en LinkedIn usando el título de All Big Four Firms Launch AI Agent Platforms in the Same Year [Todas las Cuatro Grandes Firmas de auditoría lanzan plataformas de agentes de IA en el mismo año]. Refiriéndose al ‘rápido despliegue’ de la IA, señala que la IA se está convirtiendo en un ‘elemento central’ del futuro de los servicios de consultoría, contabilidad y asesoría empresarial.
Ello significa que la ‘unión’ entre auditoría y consultoría, y ahora de consultoría con IA y con las operaciones de los clientes, ‘no tiene vuelta atrás’. Kale lo dice sin ambigüedades:
“Se trata de una transformación importante en la forma en que las firmas de servicios profesionales aportan valor, pasando de los modelos de consultoría tradicionales a ecosistemas de asesoría y automatización impulsados por IA.”
Es lo que yo he denominado plataformas profesionales’. Cfr. mi artículo From partners to platformers. ¡La prestación de servicios profesionales cambió para siempre!
¿Nueva teoría de la agencia?
La teoría de la agencia está en la base de la auditoría moderna: un profesional (‘el auditor’) independiente de la entidad que audita. Ello lo hace ya sea por mandato de la Ley, ordenamiento del Estado, o asignación de los propietarios/directivos de la entidad auditada.
La automatización de los procesos y métodos de auditoría, en particular, y de la contabilidad (e información), en general, está llevando a que se tengan que revisar los fundamentos conceptuales de la teoría económica de la agencia y, por consiguiente, los de la auditoría y el aseguramiento de la información.
Eloïse Changyue Soulier, en su trabajo que publicó el 7 de marzo de 2026 con el título de Should We Speak of Machine Agency? A Case against Conceptual Extension [¿Debemos hablar de agencia de máquina? Un argumento contra la extensión conceptual], introdujo la noción de extensión conceptual, entendida como aplicar a las máquinas un concepto previamente reservado a los humanos, pero argumentó que su ‘aceptabilidad’ es principalmente un asunto normativo, no de carácter definicional.
Tal extensión conceptual la traslada a la ética conceptual pragmática señalando que se debe preguntar qué función se puede dar a un concepto como ‘agencia’ aplicándolo a las ‘máquinas’. En otras palabras: ¿Las máquinas pueden ser agentes? ¿El cada vez más creciente número de tecnologías digitales a las que se les atribuyen capacidades del tipo que se consideraban únicas de los humanos, justifica considerarlas como agentes en, por ejemplo, la toma de decisiones de negocios?
¿Lo que hace un auditor, esto es, dar seguridad razonable a la información contenida en los estados financieros, puede ser una tarea realizable eficazmente por las máquinas y puede considerarse una acción de agencia? No hay duda que los procesos de obtener información, clasificarla, compararla, comprobarla, etc., pueden ser realizados más eficientemente por las máquinas guiadas por procesos algorítmicos. Pero, ¿las máquinas pueden dar seguridad razonable?
Soulier deja claro que su intención es abordar las siguientes preguntas:
- La reflexión sobre cómo debemos relacionarnos con esas tecnologías avanzadas es inseparable de cuestiones semánticas y epistémicas: ¿En qué términos debemos hablar acerca de ellas?
- ¿Debemos usar términos que de lejos esencialmente han sido usados para caracterizar capacidades y comportamientos humanos para describirlos, o mejor, debemos usar términos que enfatizan las diferencias entre las capacidades de las máquinas y las de los humanos?
Considero que las respuestas a estas preguntas no solo son importantes para resolver los problemas de la extensión conceptual y de la agencia, sino también para abordar las problemáticas asociadas con las capacidades humanas, principalmente del auditor: escepticismo, juicio y ética profesional, que difícilmente podrían ser realizadas por máquinas pero que, por efecto de las cuestiones semánticas y epistémicas puede generarse confusión entre los profesionales, los usuarios y la sociedad en general.
Soulier dice:
“En este artículo, primero introduzco la noción de extensión conceptual y argumento que la manera como hablamos acerca de esas tecnologías debe ser principalmente enfocada como una cuestión normativa. Los creadores y diseñadores de cualesquiera tecnologías tienen influencia en, y por lo tanto deber moral de reflejar los valores inmersos en las tecnologías que colocan en el mundo, así como también sus usos potenciales. Esto es más consensual en la filosofía de la tecnología y de hecho un punto de partida teórico por la variedad de enfoques metodológicos que analizamos en relación con los valores y tecnologías, tales como diseño sensible-al-valor, valores en el diseño, ética computacional reveladora. De manera similar, argumento que las cuestiones conceptuales vinculadas a esos desarrollos tecnológicos deben ser enfocadas a la luz de sus implicaciones normativas.” [Las negrillas no son del original]
El lector podrá observar las similitudes ‘teóricas’ y ‘prácticas’ relacionadas con las actuales regulaciones y estandarizaciones de la auditoría y de la contabilidad. Los desarrollos que se den en relación con las extensiones conceptuales y la nueva teoría de la agencia ciertamente podrán tener usos y consecuencias importante para lo contable: si no se avanza, la IA tomará más ventajas. Aferrarse a lo tradicional ya no es una opción válida.
Dos aspectos que merecen ser analizados son la manera como Soulier enfoca:
- La extensión conceptual: en el contexto de la ética conceptual pragmática y de la disrupción conceptual: más allá de los tradicionales enfoques contables basados en ‘la brecha’ [expectation gap] entre lo que el público pide y lo que los contadores/auditores pueden dar. Se trata de una búsqueda de mejoramiento conceptual, algo que los contables poco han querido/podido avanzar (Cfr. su aferramiento a la partida doble y la dependencia de lo legal/tributario).
- La agencia de máquina: presenta un resumen de sus principales detractores (ausencia de entendimiento significativo y la imposibilidad ética) y defensores (más allá de los estados mentales y la intencionalidad). Reconoce que en buena medida se trata de un debate insoluble y que solo el tiempo generará un vencedor claro.
Concluye recordando las palabras de Hanslanger:
“Los conceptos no solo nos permiten describir, sino que también nos ayudan a estructurar las prácticas sociales, así como nuestras cambiantes prácticas afectan nuestros conceptos”.
Posiblemente las mayorías contables no acojan esta conclusión y sigan aferradas a lo que las normas señalen. ¡Y luego se quejarán de que la IA los desplaza!
¿Exactitud o explicabilidad?
¿Los estados financieros deben ser exactos y/o deben explicar la situación financiera, el desempeño y los flujos de efectivo?
La exactitud de los estados financieros ha sido cuestionada desde diversas perspectivas. Si bien para algunos son ‘exactos’ en cuanto muestran ‘sumas iguales’ derivadas del registro por partida doble (en el debe y en el haber), en el presente muchos cuestionan ello debido a que, si bien se mantiene el registro por partida doble, están prevaleciendo los estimados como fruto del interés por mostrar, a la fecha de los reportes, información actual (a valor corriente o a valor razonable).
La explicabilidad de la información contenida en los reportes financieros en relación con, principalmente la situación financiera, el desempeño y los flujos de efectivo, generalmente goza de general aceptación, teniéndose clara la materialidad financiera de tal información. Quienes insisten en los reportes de sostenibilidad y GRI adicionan que la materialidad debe ser doble, esto es, materialidad financiera y materialidad del impacto, pero todavía no está suficientemente claro cómo, en la práctica, se integran esos dos tipos de materialidad.
En contextos de IA hay un debate mucho más amplio y, en lugar de estimados y/o materialidad, prefiere hablarse de escenarios de riesgo alto, insistiéndose en los requerimientos de explicabilidad de los sistemas actuales, no solo de los resultados sino también de los procesos y algoritmos.
Sobre estas cosas, Stefan Buijsman publicó el 27 de febrero de 2026 un trabajo que lleva por título Accuracy Is Not All You Need! The Reasons to Require AI Explainability [¡Exactitud no es todo lo que Ud. necesita! Las razones para requerir explicabilidad de la IA] donde explica que la razón para ello es que la IA opera dentro de un sistema sociotécnico más amplio y la exactitud sola nos dice poco acerca de los resultados finales cuando se comprometen la vigilancia y la accountability humanas.
En últimas, se vuelve a las necesidades del escepticismo, el juicio y la ética profesional. Por eso Buijsman agrega que las aplicaciones que ampliamente reemplazan la toma de decisiones humanas son problemáticas, pero la IA puede incluso apoyar decisiones de riesgo alto si los humanos retienen la capacidad para explicar esas decisiones, lo cual permanece posible incluso cuando los sistemas subyacentes son humanos.
Claro que, en términos prácticos surge la pregunta de cómo puede operar, en ese contexto, la capacidad de los humanos para explicar esas decisiones. Porque si no conocen y entienden los algoritmos y los sistemas de IA, ¿Cómo pueden explicarlos? ¿Cómo pueden auditarlos? ¿Cómo pueden dar seguridad razonable de ellos? Se trate o no de contadores y auditores, porque el problema no está en una profesión en particular.
Buijsman recuerda que, en un contexto de sistemas de IA, la pregunta inicial es si tales sistemas tienen que ser explicables para usarlos. Esto es, ¿la explicabilidad es condición para el uso? La pregunta es interesante porque si bien en términos generales se conoce lo que el sistema hace, se carece de las explicaciones por las cuales genera un resultado y no otro. Recuérdese que inicialmente de todas las IA hubo quejas de que ‘se disparataban’, esto es, generaban resultados que no correspondían a los prompts utilizados.
Buijsman adiciona que tales desafíos se generan de si normativamente está justificado el uso en escenarios de riesgo alto, esto es, los que no se utilizan para ‘jugar’ o ‘ensayar’. Centra su análisis en: (1) Críticas de la explicabilidad basadas-en-los-resultados; (2) Los límites de la confiabilidad (confianza apropiada, decisiones para corregir errores); (3) Argumentos procedimentales para la explicabilidad; y (4) Qué pasa si requerimos explicaciones?
Culmina su trabajo señalando que tener un sistema de IA exacto no es suficiente. Sin embargo, ello no significa que la IA opaca no sea apta para usarla hasta que podamos hacer que sea suficientemente explicable. Podemos encontrar maneras para beneficiarnos de la IA sin procedimientos injustos, pero tenemos que construir cuidadosamente el sistema sociotécnico del que sean parte si queremos que tenga éxito.
La auditoría y el aseguramiento, por lo menos en el contexto de la profesión contable tienen algunas ventajas dado el sistema sociotécnico (regulatorio y estandarizado) que le respalda, pero también tiene muchas explicaciones que dar, todas ellas principalmente en lo relacionado con la opacidad de sus procedimientos (integridad, ética, escepticismo, juicio) y sus resultados (reportes y garantías asociadas a ellos). El problema no está en requerir ‘exactitud’ sino en garantizar ‘explicabilidad’.
Estructuras de representación
Colin Klein aborda la diferenciación entre ‘la estructura que tiene una representación’ y ‘la estructura que representa’ y argumenta que los transformadores más simples solo tienen una estructura de representación propia muy ligera.
Esos transformadores ligeros, según Colin Klein en su trabajo titulado Represented Structure versus Representational Structure: A Challenge for Interpreting LLMs [Estructura representada versus estructura representacional: un desafío para interpretar los LLM], publicado el 27 de febrero de 2026, son la arquitectura que subyace a los modelos más familiares de grandes modelos de lenguaje (LLM), trabajan con la estructura del lenguaje que representan, pero no necesariamente la utilizan. Agrega que, además de ser interesante en sí mismo, esto también muestra cómo podemos utilizar invariantes de algo a nivel computacional para imponer restricciones a los formatos de representación a nivel algorítmico.
Sin que Klein lo reconozca, esta misma diferenciación es la que se hace entre ‘contabilidad’ y ‘estados financieros’ (o mejor aún, presentación de reportes financieros). ¿Los estados financieros representan fielmente la información contenida en la contabilidad?
Según esta diferenciación básica, la ‘contabilidad’ (o mejor aún, el sistema de información contable, que comprende reconocimiento, clasificación, medición, presentación y revelación) contiene ‘en forma bruta, no estructurada’ la realidad económica de la entidad, derivada de sus transacciones, contratos y riesgos, que se pretende esté fielmente representada en los estados financieros y permita que con base en éstos los distintos usuarios puedan tomar decisiones informadas.
Hasta el presente, esa diferenciación básica ha sido posible trasladarla a los sistemas informáticos con el fin de agilizar los procesos (velocidad) y mejorar la calidad (consistencia) de la información.
Ahora, mediante los algoritmos, se están consiguiendo variaciones importantes en los tipos de información representativa y su utilidad para las distintas decisiones, dado que los algoritmos pueden interactuar con los diferentes tipos de información contenida en el sistema de información contable, ampliándola a otras decisiones de negocio y de relación con el entorno.
La dificultad que se encuentra es que el lenguaje utilizado, esto es, el sistema de partida doble y las relaciones asociadas con esta se ha vuelto insuficiente para las complejas realidades de los negocios a nivel internacional, regional, nacional y local. Por esa razón, vía nuevos algoritmos se está generando la nueva información requerida para las nuevas circunstancias, bastante más allá de los tradicionales sistemas legales de tipo binario (debe-haber).
El análisis que realiza Klein permite abrir caminos para desarrollar una lógica algorítmica que supere las tradicionales limitaciones de la contabilidad y de los estados financieros, mediante el uso de nuevas estructuras representacionales vía grandes modelos de lenguaje. En esto hay avances importantes, si bien todavia no incorporados en las ‘corrientes oficiales’ de la emisión de los estándares de información financiera (‘adopción jurisdiccional’) y el cumplimiento forzoso de las regulaciones vía las estructuras de supervisión, vigilancia y control.
