Vol. 13/ Núm. 1 2026 pág. 324
https://doi.org/
10.69639/arandu.v13i1.1918
Desafíos procesales ante la futura incorporación de
inteligencia artificial en el Sistema judicial ecuatoriano

Procedural Challenges Regarding the Future Incorporation of Artificial Intelligence in
the Ecuadorian Judicial System

Coraima Lisbeth Arana Miranda

coraima.aranamiranda7442@upse.edu.ec

https://orcid.org/0009-0001-1584-5554

Universidad Estatal Península de Santa Elena UPSE

Ecuador Santa Elena

Yeriny Del Carmen Conopoima Moreno

y.conopoima@upse.edu.ec

https://orcid.org/0000-0001-9998-3681

Universidad Estatal Península de Santa Elena UPSE

Ecuador Santa Elena

Artículo recibido: 10 diciembre 2025 -Aceptado para publicación: 18 enero2026

Conflictos de intereses: Ninguno que declarar.

RESUMEN

La relación entre la inteligencia artificial y las garantías procesales en el contexto jurídico es
examinada en este artículo. El estudio determina los peligros que, para el derecho de los
ciudadanos a recibir resoluciones judiciales basadas en fundamentos, suponen los algoritmos de
"caja negra". La doctrina jurídica vigente y los criterios de transparencia técnica son analizados
en el estudio mediante un método cualitativo y una estructura documental. Los hallazgos
evidencian que la opacidad de los sistemas automatizados obstaculiza la verificación del
razonamiento que sustenta las decisiones judiciales, lo que puede derivar en situaciones de
indefensión frente a eventuales sesgos algorítmicos. En respuesta, esta investigación propone un
modelo de garantismo tecnológico que supedita la eficiencia del software a la supervisión humana
y a la exigencia de que su lógica operativa sea explicable. En síntesis, el estudio concluye que la
transparencia tecnológica constituye un elemento indispensable para preservar la confianza en la
administración de justicia y asegurar el respeto a la tutela judicial efectiva.

Palabras clave:
inteligencia artificial, debido proceso, motivación judicial, caja negra,
protección digital

ABSTRACT

This article examines the relationship between artificial intelligence and procedural safeguards in
the legal sphere. The study highlights the risks posed by opaque or black box algorithms to the
right of individuals to obtain properly reasoned judicial decisions. It adopts a qualitative
methodology with a documentary design to review contemporary legal theory and standards of
Vol. 13/ Núm. 1 2026 pág. 325
technical transparency, the findings indicate that the lack of clarity in automated decision-making
systems hinders the assessment of the logical foundations of rulings, which may limit effective
defense against potential algorithmic biases. The paper suggests the adoption of a digital
protection framework that prioritizes human oversight and mandatory explainability over mere
technological efficiency. It concludes that ensuring transparency in technological tools is a key
requirement for maintaining public confidence in the justice system and safeguarding effective
judicial protection.

Keywords: artificial intelligence, due process, judicial motivation, black box, digital
protection

Todo el contenido de la Revista Científica Internacional Arandu UTIC publicado en este sitio está disponible bajo
licencia Creative Commons Atribution 4.0 International.
Vol. 13/ Núm. 1 2026 pág. 326
INTRODUCCIÓN

La integración de sistemas de Inteligencia Artificial (IA) está causando una
transformación histórica en la administración del sistema judicial a nivel mundial. Hoy en día, el
debate académico ha evolucionado desde la simple digitalización de archivos hacia la
implementación de modelos complejos que ayudan a resolver conflictos. Según Susskind (2023),
reconocido como un referente internacional en materia de justicia digital, este proceso de cambio
de paradigmas constituye una oportunidad para superar las barreras tradicionales que restringen
el acceso efectivo a la justicia, sin embargo, se advierte que la esencia de la función jurisdiccional
debe preservarse ante el desarrollo tecnológico, con el fin de impedir que la aplicación del derecho
pierda su dimensión humana.

La implementación de estas tecnologías en América Latina presenta un desarrollo
heterogéneo, aunque Estados como Colombia y Argentina han avanzado en la creación de
herramientas para la gestión de providencias y la automatización de resoluciones de menor
complejidad, todavía no se ha consolidado un estándar técnico y ético común en la región, dentro
de este contexto regional impulsa a sistemas judiciales como el ecuatoriano a examinar de qué
manera la innovación puede contribuir a la reducción de la mora procesal sin comprometer la
seguridad jurídica, especialmente en un escenario marcado por una alta demanda ciudadana de
eficiencia y, al mismo tiempo, por una persistente debilidad en la confianza institucional.

En el caso específico del Ecuador, la inexistencia de una regulación explica sobre el
empleo de algoritmos en los procesos de toma de decisiones sitúa al sistema judicial en una
situación de vulnerabilidad, dentro de este eje del problema reside en que la incorporación de
estas herramientas ha estado guiada principalmente por criterios de gestión y optimización
administrativa, sin una consideración suficiente de los riesgos inherentes a la automatización, ya
que la falta de un marco normativo en este caso permite su aplicación sin una evaluación previa
de su adecuación constitucional, lo que genera un vacío en las garantías de la tutela judicial
efectiva.

Asimismo, la limitada transparencia de los sistemas de inteligencia artificial plantea un
desafío directo para la vigencia del Estado constitucional de derechos y justicia. Según el jurista
Nieva Fenoll (2024), uno de los procesalistas más influyentes en la actualidad, representa un
peligro particular que tiene que ser gestionado el reemplazar el juicio esencial del juez por un
resultado algorítmico inexplicable.

El derecho primordial del ciudadano es recibir una explicación precisa sobre las
decisiones que influyen en su ámbito legal. Este aspecto surge en confrontación directa con los
modelos de inteligencia artificial que laboran como "puertas oscuras" y no facilitan que las partes
comprendan los motivos exactos de una decisión.
Vol. 13/ Núm. 1 2026 pág. 327
La importancia de esta investigación se fundamenta en la necesidad de preservar el
proceso judicial de la arbitrariedad digital. No es posible permitir una justicia moderna que
priorice la rapidez judicial a la equidad. En relación con esto, Dopico Silva (2024) resalta que los
algoritmos suelen adquirir prejuicios sociales que pueden resultar en decisiones de discriminación
si no se realiza un control humano riguroso. Por lo tanto, es crucial que el sistema judicial del
Ecuador elabore protocolos de auditoría y transparencia antes de asignar en sistemas
automatizados las funciones de valoración o selección de información.

Desde el punto teórico, esta revisión se sitúa en la transformación moderno del
Garantismo. Conforme según la teoría del maestro Luigi Ferrajoli (2022), que es el fundamento
filosófico del constitucionalismo ecuatoriano contemporáneo, el derecho procesal necesita
progresar para proteger a la persona ante las recientes potencias tecnológicas. La garantía
determina que todo progreso tecnológico tiene que permanecer jerárquicamente subordinado a
los derechos fundamentales, previniendo de esta manera que la IA se convierta en una herramienta
para ejercer poder absoluto que evada el control jurisdiccional y la norma jurídica.

Dentro de la legislación nacional, dicha solicitud está vinculada directamente con el deber
de motivación establecido en el inciso l del numeral 7 del artículo 76 de la Constitución de la
República del Ecuador (2008), la motivación no se agota en la mera referencia a disposiciones
normativas, sino que esta implica desarrollar el razonamiento que justifica su aplicación a los
hechos del caso, tal como sostiene el jurista García Amado (2025), este es reconocido por su
autoridad en el ámbito de la argumentación jurídica, en este sentido, cuando un juzgador recurre
a un sistema de inteligencia artificial basado en procedimientos opacos o ininteligibles, vulnera
el mandato constitucional que exige que toda resolución sea jurídica, racional y comprensible, lo
que conlleva la nulidad del acto procesal.

Ante estos datos previos, el propósito de este artículo es examinar los retos procesales y
las amenazas legales más relevantes que surgirían si se integrara la inteligencia artificial al sistema
judicial del Ecuador, con un método cualitativo, se pretende detectar las colisiones normativas
existentes y sugerir pautas que garanticen que la IA actúe como una asistente en lugar de sustituir
el juicio humano, protegiendo siempre la imparcialidad judicial y la protección efectiva de los
derechos, en términos finales, la investigación parte de la premisa en dirección a la ausencia de
un marco normativo que garantice la transparencia de los algoritmos y su capacidad explicativa,
la incorporación de sistemas de inteligencia artificial en la administración de justicia ecuatoriana
esto podría generar una vulneración reiterada del derecho a la motivación, ello debilitaría la tutela
judicial efectiva, al permitir que decisiones con consecuencias jurídicas relevantes se vean
influenciadas por herramientas que escapan al control directo y al principio de contradicción de
las partes, comprometiendo así los pilares del debido proceso constitucional.
Vol. 13/ Núm. 1 2026 pág. 328
MATERIALES Y MÉTODOS

Un enfoque cualitativo es la base de esta investigación, lo que es fundamental en las
ciencias jurídicas para tratar fenómenos donde la interpretación de principios y normas tiene más
peso que la cuantificación de datos. Esta perspectiva posibilita un estudio hermenéutico de la
colisión entre las tecnologías disruptivas y el bloque constitucional ecuatoriano. Al no buscar
información estadística, el estudio se enfoca en entender la naturaleza del riesgo procesal que
representa la Inteligencia Artificial (IA) para las garantías mínimas del debido proceso. Esto
posibilita una indagación detallada de los conceptos de justicia algorítmica y falta de transparencia
judicial.

La investigación es de tipo analítico descriptivo y tiene un enfoque exploratorio. Es
analítico porque separa las categorías jurídicas de motivación, inmediación y derecho a la defensa
para compararlas con los rasgos de los sistemas de "caja negra"; y es descriptivo porque explica
en detalle cómo funcionan los algoritmos de decisión desde un punto de vista técnico-jurídico y
cuál es su situación actual en el ámbito judicial. El diseño es bibliográfico, documental y no
experimental, ya que se obtiene información a través de la revisión de documentos existentes sin
alterar las variables. La unidad de análisis se organizó en tres partes para garantizar la validez
científica y la rigurosidad del estudio, lo que posibilitó una triangulación de datos que respalda
las conclusiones.

Esta unidad estuvo conformada por:

1.
Producción doctrinal especializada: Se escogieron textos y artículos científicos en torno a
la justicia y la inteligencia artificial, con preferencia por autores de gran impacto
internacional cuyas obras fueron publicadas entre el 2021 y el 2026, garantizando así que
el debate permanezca en la frontera del pensamiento jurídico actual.

2.
Normativa jurídica nacional: en esta se analizaron las disposiciones de mayor rango que
rigen en el sistema procesal, tales como el Código Orgánico Integral Penal en lo relativo a
la valoración probatoria y las garantías en materia penal, la Constitución de la República
del Ecuador del 2008 como norma suprema del ordenamiento jurídico y el Código
Orgánico de la Función Judicial, que abarca en examinar los principios de ética e
independencia que orientan la actuación de los operadores de justicia.

3.
Pronunciamientos y fuentes jurisprudenciales: Se integraron referentes internacionales y
de derecho comparado, tales como marcos regulatorios de vanguardia entre ellos, el
Reglamento de Inteligencia Artificial de la Unión Europea y resoluciones de tribunales
internacionales, considerados fundamentales para la definición de estándares mínimos de
salvaguarda de los derechos humanos en entornos digitales.

La técnica de revisión documental se utilizó en la fase de recopilación de datos. Esta
técnica posibilitó el análisis metódico y detallado del corpus doctrinal y normativo ya
Vol. 13/ Núm. 1 2026 pág. 329
mencionado. Se usaron como herramientas de recolección matrices de análisis de contenido y
fichas bibliográficas, que ayudaron a estructurar la información y a facilitar el contraste entre la
realidad tecnológica contemporánea y la teoría garantista.

En lo que respecta a los métodos de investigación, se implementaron de manera
combinada: el método dogmático-jurídico para examinar la obligación normativa del artículo 76,
numeral 7, literal l de la Constitución ecuatoriana; el método jurídico comparado para comparar
la situación en el país con los progresos regulatorios en el extranjero; y el método analítico-
sintético para descomponer las estructuras de los algoritmos de aprendizaje profundo y resumir
su efecto en los principios de independencia y motivación judicial. Este proceso garantiza que el
análisis no se limite a una simple recopilación de datos, sino que sea una construcción jurídica
bien fundamentada que posibilita la validación de la hipótesis propuesta.

RESULTADOS Y DISCUSIÓN

Después de la aplicación del método analítico y el análisis de documentos que contienen
las fuentes elegidas, se exponen los hallazgos que respaldan la hipótesis de la investigación. El
descubrimiento más importante es la incompatibilidad técnica de algunos sistemas de IA con el
estándar de motivación judicial en Ecuador. Los sistemas de aprendizaje profundo funcionan bajo
lógicas de "caja oscura", que no posibilitan rastrear el proceso deductivo. En contraste, la
Constitución de la República del Ecuador (2008) requiere que las resoluciones enuncien normas
y argumenten acerca de la relevancia de su aplicación. Según García Amado (2025), por
definición, una decisión sin explicación es una decisión arbitraria; en consecuencia, si se
incorpora IA sin "explicabilidad", se institucionalizaría la arbitrariedad tecnológica en el país.

Además, se determinó que la utilización de algoritmos predictivos va en contra del
principio de inocencia a través del estudio del Código Orgánico Integral Penal (COIP). De
acuerdo con Dopico Silva (2024), los datos de entrenamiento generalmente incluyen sesgos que
la IA potencia, lo que exige una revisión continua para prevenir decisiones discriminatorias. La
"dictadura del algoritmo" agrava esta circunstancia, ya que el juez podría seguir ciegamente una
recomendación automatizada, confiando en la eficacia que fomenta el Código Orgánico de la
Función Judicial (COFJ) y cediendo su autoridad jurisdiccional a un software privado.

La propuesta de un Garantismo Tecnológico es la novedad científica de esta
investigación. Tomando como base el pensamiento de Ferrajoli (2022) y la conversación con
Nieva Fenoll (2024), se determina que la inteligencia artificial no debe ir más allá de las tareas de
asistencia administrativa y no debe emplearse en la valoración de pruebas, ya que esta última
exige un juicio axiológico humano. Lo polémico es que la ausencia de una legislación sobre IA
en Ecuador deja al ciudadano sin protección ante el secreto comercial de las compañías de
software. En resumen, los peligros detectados en las dimensiones procesales y constitucionales
se describen y muestran gráficamente a continuación.
Vol. 13/ Núm. 1 2026 pág. 330
Tabla 1

Desafíos de la IA frente a la normativa procesal ecuatoriana

Dimensión
Jurídica

Norma Afectada
Riesgo Identificado
Motivación
Art. 76.7.l
Constitución

Inexistencia de un iter lógico comprensible en el
algoritmo.

Inmediación
Art. 5 COIP Sustitución de la percepción directa del juez por
datos procesados.

Independencia
Art. 8 COFJ El juez sigue ciegamente la recomendación
técnica (automatismo).

Derecho a la
Defensa

Art. 76.7
Constitución

Imposibilidad de impugnar la lógica interna de la
"caja oscura".

Figura 1

El conflicto de la caja oscura frente al deber de motivación judicial

CONCLUSIONES

Se concluye que la aplicación de sistemas de inteligencia artificial bajo el modelo "caja
negra" infringe el derecho de los ciudadanos a recibir decisiones judiciales debidamente
fundamentadas. Al tratarse de procesos lógicos incomprensibles, es imposible que las partes
procesales entiendan los fundamentos fácticos y jurídicos de una sentencia, lo que convierte la
administración de justicia en un acto de fe tecnológica en vez de en un ejercicio de razón legal.

Se sostiene que la inteligencia artificial debe desempeñar un rol estrictamente auxiliar y no
decisorio dentro del sistema judicial, en la medida en que la función de juzgar conlleva una carga
valorativa y humana que no puede ser reemplazada por algoritmos. En consecuencia, resulta
indispensable la intervención y supervisión de un operador humano para la validación de
Vol. 13/ Núm. 1 2026 pág. 331
cualquier resultado automatizado, a fin de asegurar que la tecnología contribuya a la eficiencia
sin desplazar la responsabilidad ética del juzgador.

Asimismo, la investigación advierte que la falta de transparencia en los algoritmos de
carácter predictivo constituye un riesgo sustancial para los principios tanto de equidad como de
imparcialidad procesal, dichos sesgos incorporados en los datos de entrenamiento pueden derivar
en decisiones automatizadas con efectos discriminatorios y de difícil impugnación, lo que hace
necesario que el sistema judicial implemente mecanismos de auditoría continua para evitar la
reproducción de prejuicios sociales dichas resoluciones.

Se afirma que la legitimidad del uso de tecnologías en el ámbito jurídico se encuentra
condicionada al denominado garantismo tecnológico, como la obligación de asegurar la
explicabilidad y el acceso a la lógica de funcionamiento de los sistemas implementados, pero solo
a través de un marco normativo que priorice los derechos fundamentales por sobre la mera
eficiencia técnica, la innovación podrá fortalecer la confianza en la administración de justicia sin
menoscabar sus bases democráticas.
Vol. 13/ Núm. 1 2026 pág. 332
REFERENCIAS

Asociación de Academias de la Lengua Española. (2024). Diccionario panhispánico del español
jurídico. Real Academia Española.
https://dpej.rae.es/
Atienza, M. (2022). Sobre la inteligencia artificial y el derecho. Revista de Filosofía del Derecho.

https://doi.org/10.14198/DOXA2022.45.15

Barona Vilar, S. (2021). Algoritmización de la justicia: ¿El último paso hacia la deshumanización
del proceso?. Aranzadi.
https://www.tirant.com/editorial/libro/9788413912141/
Cárdenas, J. P. (2022). Inteligencia artificial y derecho: Desafíos para el debido proceso en la
era digital. Editorial Jurídica de las Américas.
https://ejamericas.org/publicaciones/ia-
derecho-2022

Consejo de Europa. (2021). Carta Ética Europea sobre el uso de la Inteligencia Artificial en los
sistemas judiciales y su entorno. Estrasburgo: Comisión Europea para la Eficacia de la
Justicia (CEPEJ).
https://rm.coe.int/carta-etica-europea-ia-judicial/16809033f7
Dopico Silva, J. (2024). Algoritmos, justicia penal y el derecho a la defensa: Hacia una auditoría
judicial de la técnica. Marcial Pons.
https://www.marcialpons.es/libros/algoritmos-
justicia-penal-y-el-derecho-a-la-defensa/9788413816520/

Ferrajoli, L. (2022). Por una Constitución de la Tierra: La humanidad en la encrucijada. Trotta.

https://www.trotta.es/libros/por-una-constitucion-de-la-tierra/9788413640525/

García Amado, J. A. (2025). Argumentación jurídica y motivación de las sentencias en el siglo
XXI. Palestra Editores.
https://palestraeditores.com/producto/argumentacion-juridica-
2025/

García-Pablos de Molina, A. (2023). Criminología y nuevas tecnologías: El riesgo de los
algoritmos predictivos. Tirant lo Blanch.

https://editorial.tirant.com/es/libro/9788411472289

Luján, M. (2023). La transparencia algorítmica y el derecho a la explicación en el proceso civil.
Revista Iberoamericana de Derecho Procesal.
https://derecho-
procesal.org/articulos/transparencia-ia

Martínez, G. (2024). Justicia algorítmica: El juez frente a la máquina. Ediciones Olejnik.

https://www.edicionesolejnik.com/libro/justicia-algoritmica/

Nieva Fenoll, J. (2024). La digitalización de la justicia y el fin de la inmediación: Un análisis
crítico. Atelier Libros Jurídicos.
https://www.atelierlibros.es/libros/la-digitalizacion-de-
la-justicia/9788419112347/

O'Neil, C. (2021). Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad
y amenaza la democracia. Capitán Swing.
https://capitanswing.com/libros/armas-de-
destruccion-matematica/
Vol. 13/ Núm. 1 2026 pág. 333
Organización de las Naciones Unidas (ONU). (2024). Resolución de la Asamblea General:
Aprovechar las oportunidades de los sistemas de inteligencia artificial seguros y fiables
para el desarrollo sostenible.
https://undocs.org/es/A/RES/78/265
Peralta, J. (2023). Inteligencia artificial y derechos humanos: Una perspectiva constitucional
comparada. Centro de Estudios Políticos y Constitucionales.

https://www.cepc.gob.es/publicaciones/libros/ia-derechos-humanos

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por
el que se establecen normas armonizadas sobre inteligencia artificial. Diario Oficial de la
Unión Europea.
http://data.europa.eu/eli/reg/2024/1689/oj
Simón Castellano, P. (2022). La inteligencia artificial en la administración de justicia: ¿Auxilio
o sustitución?. Revista de Derecho Público.
https://doi.org/10.5354/0719-
5249.2022.67890

Ubertone, F. (2023). Hermenéutica jurídica y herramientas digitales: El rol del juez en la era
algorítmica. Abeledo Perrot.
https://www.abeledoperrot.com.ar/ia-y-hermeneutica
Vázquez, C. (2023). Prueba y algoritmos: El desafío de la transparencia en el proceso judicial.
Ediciones Universidad de Salamanca.
https://eusal.es/index.php/eusal/catalog/book/978-
84-1311-789-7

Wachter, S., & Mittelstadt, B. (2021). Derecho a la explicación: Un análisis jurídico de la
transparencia en la IA. Oxford Internet Institute.

https://doi.org/10.1093/oxfordhb/9780190067397.013.1