Spanish English Portuguese

Deus ex machina: inteligencia artificial frente a la pluralidad epistémica*

Deus ex machina: inteligência artificial perante a pluralidade epistémica

Deus ex Machina: Artificial Intelligenceand Epistemic Plurality

DOI: 10.30578/nomadas.n57a5

 

  Versión PDF

 

Andrés Felipe Vargas Mariño **

Resumen

La acelerada puesta en el mercado de diversas inteligencias artificiales (IA) tiene el potencial de generar profundos cambios para los seres vivos en nuestro planeta. Más allá de las preocupaciones sobre la privacidad y los impactos económicos de este cambio, este artículo contribuye al debate sobre la necesidad de liberar a las IA de los presupuestos ontoepistémicos modernos que la imaginan como un agente hiperracional y sin subjetividad desde el que produce conocimiento objetivo. Como alternativa, es necesario pensarla desde una perspectiva plural y localizada en los conocimientos-otros, abriendo las posibilidades donde estas tecnologías no dominen nuestros futuros.

Palabras clave: inteligencia artificial, presupuestos ontoepistémicos de la IA, colonialidad de los algoritmos, pluralidad epistémica, diseño plural de IA, conocimientos-otros

Resumo

A acelerada comercialização de diversas inteligências artificiais (IA) tem o potencial de gerar mudanças profundas para os seres vivos em nosso planeta. Além das preocupações com a privacidade e os impactos econômicos desta mudança, este artigo contribui para o debate sobre a necessidade de liberar a IA dos pressupostos ontoepistêmicos modernos que a imaginam como um agente hiper-racional e sem subjetividade a partir do qual ela produz conhecimento objetivo. Como alternativa, é necessário pensar nela desde uma perspectiva plural e localizada nos conhecimentos-outros, abrindo possibilidades em que essas tecnologias não dominem nossos futuros.

Palavras-chave: inteligência artificial, pressupostos ontoepistêmicos da IA, colonialidade dos algoritmos, pluralidade epistêmica, design plural da IA, conhecimentos-outros.

Abstract

The rapid market introduction of various artificial intelligences (AI) has the potential to bring profound changes to life on our planet. Beyond concerns about privacy and the economic impacts of this shift, this article contributes to the debate on the need to free AI from modern onto-epistemic assumptions that envision it as a hyper-rational agent without subjectivity, producing objective knowledge. As an alternative, it is necessary to conceptualize AI from a plural and localized perspective within other knowledges, opening up possibilities where these technologies do not dominate our futures.

Keywords: artificial intelligence, onto-epistemic assumptions of AI, coloniality of algorithms, epistemic plurality, plural AI design, other knowledges.

*Este articulo surge del proyecto de investigación “Prácticas y representaciones sociales frente a la Inteligencia Artificial en el marco de los procesos de enseñanza/aprendizaje en la educación superior en Colombia”, que tiene como objetivo analizar las percepciones que las universidades regionales de Colombia tienen sobre la IA, para crear protocolos de adopción y diseño de inteligencia artificial ajustados a sus necesidades. La investigación se encuentra en etapa inicial y está en búsqueda de financiación.
**Profesor de la Escuela de Comunicación Estratégica y Publicidad, Universidad Central (Colombia) y miembro del grupo de investigación Comunicación-Educación y Consumo en la misma universidad. Ph. D. en Estudios de la Globalización y Ciencias Sociales de RMIT Universtiy. Correo: Esta dirección de correo electrónico está protegida contra spambots. Usted necesita tener Javascript activado para poder verla.

[…] So he creates his greatest work of all.
A tribute to his likeness.
An extension of his being.
A witness to the brilliance of its master.
And the executor of his commands.
But man’s greatest work of all does not see brilliance.
It sees only corruption.
Vanity.
Hubris.
(General Interactive Co., 2022)

Introducción

Desde el 2022 se han lanzado al mercado una variedad de inteligencias artificiales capaces de generar imágenes y sonidos que emulan la capacidad creativa humana para generar imágenes y música de manera muy cercana. Así, aplicaciones como Midjourney, Dall-e o Beatoven han generado enorme expectativa y discusiones a nivel planetario. De manera similar, hemos atestiguado la comercialización de modelos colosales de lenguaje, o large language models (LLM), que como ChatGPT son capaces no solo de emular conversaciones humanas, sino de generar contenido que se mimetiza con la producción literaria, periodística y académica humana.

Aunque el desarrollo y la implementación de la inteligencia artificial (IA) ha sido un campo de estudio que se ha desarrollado prácticamente a la par con el desarrollo de los computadores, no fue sino hasta que los LLM y las IA generativas se lanzaron al mercado que estas se han puesto en el centro del debate público. Las discusiones y la política pública al respecto han girado alrededor de la privacidad y los derechos de autor de los datos usados en los procesos de aprendizaje automático (AA) (Miceli et al., 2021), su potencial disruptivo en el mercado laboral (Sharma et al ., 2022) y la mitigación del impacto de los sesgos culturales sobre el desarrollo de los modelos de AA, en particular por su potencial de reproducir formas de opresión y exclusión social en sus algoritmos y outputs, especialmente cuando estas tecnologías se usan para agilizar la toma de decisiones sobre las llamadas infraestructuras críticas como la salud, el transporte, el sistema financiero e incluso la participación política (Miceli y Posada, 2022).

Empero, estas discusiones no suelen considerar las limitaciones de las epistemologías racionalistas en el diseño y la implementación de IA, más aún cuando su desarrollo e implementación está guiado por el tecnoutilitarismo capitalista, que excluye una extensa variedad de ontologías relacionales y epistemologías no occidentales (Lewis et al., 2020, p. 6). El discurso prevalente sobre la IA la representa como un agente hiperracional, localizado en un punto de enunciación neutro, en el que la racionalidad moderna se convierte en la única vía hacia el conocimiento. Desde allí, la IA se vislumbra como una tecnología que puede producir conocimiento verdaderamente universal y objetivo, pues no es motivada por la subjetividad humana ni está sujeta a las estructuras sociales, sino que es el resultado del cientificismo positivista materializado en la datificación. En otras palabras, los discursos hegemónicos sitúan a la IA en lo que Castro-Gómez (2005) llamó el punto cero, convirtiéndola en el dios encarnado en una máquina: Deus ex machina, que puede reducir la realidad a sus formas (los datos) como única manera de comprenderla.

• Asesinos profesionales, pintura, acrílico sobre lienzo (196 x 143 cm) | Serie Recortes de Prensa. Andrés Orjuela, 2016

Este punto cero oculta cómo la datificación de la realidad reproduce procesos extractivistas del saber y el trabajo de millones de personas en el Sur global, continuando y expandiendo las lógicas de la colonialidad en el siglo XXI (Couldry y Mejias, 2021; Hermann, 2023). Así, aunque los protocolos, las guías y las discusiones que se dan en diferentes instancias regulatorias son de vital importancia para asegurar que estas tecnologías contribuyan a la construcción de un futuro sostenible y pluriversal, continúan reproduciendo los discursos hiperracionales del capitalismo tecnocéntrico, en el que transforman la realidad en datos para poderla mercantilizar (Shakir et al., 2020).

En tal contexto, este artículo busca contribuir al incipiente, pero creciente debate sobre la descolonización y la pluralización de la IA (Lewis et al., 2020; Miceli y Posada, 2022; Posada, 2021; Scannell, 2022; Shakir et al., 2020; Švelch, 2019). Con esto busco abrir una discusión sobre formas alternativas para diseñar, desarrollar y poner en marcha IA que contribuyan a la construcción de futuros pluriversales, en los cuales formas alternativas de relacionarse con la realidad tengan cabida. El artículo explica brevemente qué es la IA y sus presupuestos ontoepistémicos, para analizar cómo dichos presupuestos se materializan en la colonialidad de los algoritmos. Finalmente, expondré algunas posibles rutas para liberar a la IA de estos presupuestos, abriendo las posibilidades para que esta tecnología contribuya a la construcción de futuros plurales.

¿Qué es la inteligencia artificial?

De manera general, inteligencia artificial denota máquinas capaces de llevar a cabo tareas cognitivas de manera autónoma. Principalmente, las siguientes:

  1. Gestionar conocimiento: se refiere a guardar y ordenar información de manera sistemática y proveer acceso organizado a ella cuando se requiera (Jarrahi et al., 2023).
  2. Percibir información del mundo real: sucede cuando los sistemas tienen sensores para detectar sonido, luz y movimiento y los convierten en datos que puedan ser procesados por sistemas digitales.
  3. Representar conocimiento y racionamiento: abarca el transformar la realidad en representaciones simbólicas de hechos, objetos, eventos o procesos que pueden ser procesados mediante lógica de proposiciones (Brachman, 1988; Tanque, 2021). Esto habilita la extracción y mercantilización del conocimiento, los territorios y las culturas.
  4. Procesar el lenguaje natural: alude a sistemas de cómputo que son capaces de comprender lenguajes verbales y textuales humanos, así como de usar razonamientos lógicos y modelos estadísticos para producir expresiones en estas lenguas (Jain, 2022).
  5. Aprendizaje automático (AA) o machine learning (ML): es la capacidad que tienen ciertos sistemas informáticos de aplicar modelos estadísticos para encontrar patrones en los datos y mejorar su eficacia en la toma de decisiones (Theobald, 2021). Estos modelos se aplican de manera cíclica, es decir, la maquina usa los algoritmos y encuentra patrones en una base de datos en varias iteraciones. En cada repetición o ciclo, la máquina usa de manera autónoma la información obtenida en los ciclos anteriores para corregir los algoritmos y los modelos, con miras a encontrar mejores patrones en los datos y por ende tomar decisiones más acertadas1.

Estas tareas son interdependientes, como en los asistentes personales de los teléfonos inteligentes. Estos deben ser capaces de percibir los sonidos producidos por la voz humana (tarea 2) e interpretarlos como lenguaje (tareas 3 y 4), para ordenar y usar la información y el conocimiento a su disposición (tarea 1), a efectos de dar respuesta a los requerimientos de quien los usa (tarea 5).

• Asesinos profesionales, pintura, acrílico sobre lienzo (196 x 143 cm) | Serie Recortes de Prensa. Andrés Orjuela, 2016

El desarrollo de la IA tiene una estrecha relación con el desarrollo de las ciencias cognitivas, pues ambas tratan de elucidar qué es la mente y cómo funciona (Desai et al., 2022; Marquis et al., 2020; Spender y Scherer, 2007), a partir de unos presupuestos ontoepistémicos sobre la naturaleza propia de la mente y la inteligencia cuyo génesis está en la división cartesiana entre res-extensa y res-cogitans. Para Descartes, la mente operaba a un nivel fuera de la res-extensa, pues el pensamiento y las ideas carecen de materia y volumen. Esta base ontoepistémica permitió transformar la realidad en datos, es decir, atomizar la realidad en pequeños fragmentos de información que pueden ser representados en bits2 y procesados mediante cálculos matemáticos; la datificación permite a la res-cogitans racionalizar la res-extensa. Esta idea es crucial para el surgimiento de la inteligencia artificial como disciplina científica pues, en sus albores, los procesos mentales o cognitivos (percepción, memorización y procesamiento de información para producir una inferencia) se vieron como procesos meramente simbólicos y, por ende, reducibles a una lógica de proposiciones que podía ser computada en una máquina (Youheng, 2023). Esta es una reducción de la realidad mediante la abstracción, la homogenización y la jerarquización de diferentes formas de conocer y actuar en el mundo (Couldry y Mejias, 2021).

El simbolismo

El simbolismo fue el paradigma dominante para entender la cognición durante la segunda mitad del siglo XX. Este se basa en la idea de que un agente inteligente fundamenta sus inferencias racionales en grandes cantidades de conocimiento estructurado mediante el uso de técnicas simbólicas, tales como los marcos lógicos, la lógica proposicional o las redes semánticas. Desde esta aproximación, la realidad solo puede conocerse cuando es reducida a datos, es decir, a su representación simbólica mediante pequeños fragmentos de información que pueden ser procesados de manera lógica o matemática (Youheng, 2023); por ejemplo, mediante el uso de redes semánticas o conceptuales que representan objetos, procesos y las relaciones entre estos, de manera esquemática, creando jerarquías y taxonomías conceptuales entre ellos (Desai et al., 2022). Los símbolos también permiten a las máquinas representar las reglas usadas para producir inferencias lógicas sobre la realidad, lo que es necesario para desarrollar razonamientos de manera autónoma.

Con base en el simbolismo se han desarrollado algoritmos heurísticos que le permiten a ciertos sistemas hacer inferencias y tomar decisiones de manera inteligente. Además, ha sido determinante para el desarrollo de la representación del conocimiento, proceso esencial para el actual florecimiento de la IA. No obstante, este paradigma no es capaz de dar cuenta de algunos procesos fundamentales para la cognición humana que no se llevan a cabo con razonamientos lógicos y que, desde esta perspectiva, se consideran razonamientos “incorrectos” (Marquis et al., 2020; Youheng, 2023). De hecho, el simbolismo parece incapaz de aprender el espíritu de las reglas usadas para inferir (Feigenbaum y McCorduck, 1983 en Youheng, 2023, p. 29); es decir, por qué existen las reglas y cuándo se pueden romper o modificar para producir resultados esperados por agentes biológicos.

• Asesinos profesionales, pintura, acrílico sobre lienzo (196 x 143 cm) | Serie Recortes de Prensa. Andrés Orjuela, 2016

En este sentido, la aproximación simbolista ha encontrado limitaciones para desarrollar una IA capaz de lidiar con la incertidumbre, como lo hacen las inteligencias biológicas, precisamente porque los algoritmos del simbolismo no pueden reflexionar sobre las reglas de sus razonamientos. Desde la década de 1980, para superar este límite se ha intentado introducir una lógica no monotónica dentro de los algoritmos de IA, intentando crear algoritmos de AA reflexivos, pero estos intentos no han sido fructíferos (Tueanrat et al., 2021; Youheng, 2023). Debido a estas limitaciones, en la década siguiente el simbolismo perdió su lugar preponderante en el desarrollo de la IA, y fue remplazado por aproximaciones conexionistas que usan hardware y software para emular el funcionamiento biológico del cerebro humano (Marquis et al., 2020).

Las limitaciones derivadas del simbolismo no se reducen a la representación de procesos cognitivos que transciendan la lógica de proposiciones. Su manera de conocer desconecta a todo saber de sus contextos ontoepistémicos, atomizándolos y clasificándolos. Esto es problemático porque permite la mercantilización de diversas realidades, saberes y formas de relacionarse con la realidad, poniéndolos al servicio de las lógicas extractivas de la colonialidad (Couldry y Mejias, 2021). En otras palabras, el simbolismo habilita el uso de la datificación para extraer saberes y prácticas de diversas comunidades en el Sur global, para homogeneizarlas y usarlas para reproducir las estructuras de poder coloniales.

De manera similar, el simbolismo ha permitido reducir los cuerpos y las subjetividades humanas a modelos descorporizados que las corporaciones tecnológicas usan para identificar y usar ciertos estímulos neurológicos con el fin de manipular la percepción y las acciones de los individuos (Zuboff, 2020). Algo que también se reproduce en las aproximaciones conexionistas.

El conexionismo

En lugar de enfatizar en la representación mediante lógica simbólica como la base de la cognición, el conexionismo busca replicar de manera artificial el funcionamiento de los sistemas nerviosos biológicos. Esta aproximación considera que el cerebro es un sistema de procesamiento de información en paralelo, compuesto por una red de numerosas unidades neuronales por la que fluyen corrientes eléctricas de diferentes valencias (o pesos) que actúan como señales de activación. El conexionismo asume que la representación de la realidad en símbolos y su procesamiento por medio de la lógica surgen espontáneamente de las redes neuronales que componen el cerebro humano y de los flujos eléctricos que suceden de manera concurrente y dispersa en redes neuronales. Así, el conexionismo parte de la presunción epistemológica de que la actividad de cualquier neurona puede ser representada como una proposición lógico-matemática, y que las sinapsis nerviosas corresponden a las relaciones entre dichas proposiciones (Youheng, 2023, pp. 26-27).

En otras palabras, el desarrollo de redes neuronales artificiales parte del presupuesto de que el cerebro puede ser reducido a un modelo mecánico y, por ende, puede ser fabricado de manera artificial3. Así, el conexionismo fundamenta el desarrollo de la IA en la observación de que, en la presencia de estímulos eléctricos, una neurona no será activada (output=0) a menos que la suma de los estímulos activadores supere un umbral eléctrico determinado, en cuyo caso la neurona producirá una corriente eléctrica (output=1). Este proceso de activación puede ser reproducido mediante sistemas de cómputo binario para crear neuronas artificiales, las cuales se conectan en redes neuronales artificiales mediante las cuales se puede emular la cognición humana.

El conexionismo ha florecido con el aumento exponencial de la capacidad de procesamiento, lo que ha permitido crear redes neuronales con numerosas capas, o niveles de procesamiento paralelos y concurrentes. Algunos de estos niveles o capas están ocultos, es decir, que no son programados directamente, sino que son entrenados mediante AA. Esto ha permitido producir inteligencias artificiales muy competentes para realizar tareas muy específicas, como procesar el lenguaje natural.

Este AA, sin embargo, requiere el simbolismo para representar el conocimiento, pues para que las neuronas artificiales puedan activarse o no, es menester transformar la realidad en impulsos eléctricos y, por ende, la emulación artificial de cerebros biológicos igualmente termina por reducir los saberes y afectos a la lógica proposicional y extraerlos de su materialidad corpórea, territorial y comunitaria (Couldry y Mejias, 2021). Para ahondar más en este asunto, es necesario revisar los presupuestos ontoepistémicos sobre los que descansa el actual desarrollo de la IA.

Presupuestos ontoepistémicos de la inteligencia artificial

El simbolismo y el conexionismo parten de perspectivas ontoepistémicas similares a la filosofía analítica, especialmente en sus versiones del positivismo y el conductismo lógico (Youheng, 2023). Para ambas, la realidad se divide en forma y materia4; la forma puede ser representada en símbolos y, por tanto, es esencial para conocer la realidad. Para el simbolismo, la cognición es producto de un conjunto de reglas gramaticales o lógicas universales para el procesamiento de información que pueden ser emuladas mediante mecanismos de cómputo artificiales (Marquis et al., 2020; Youheng, 2023). Por el contrario, para el conexionismo, la representación de la realidad en símbolos y relaciones lógicas es una consecuencia del funcionamiento biológico del cerebro; en consecuencia, la cognición no puede ser reducida a la lógica simbólica, sino que para que esta exista debe crearse un mecanismo que emule la manera en que funcionan las redes neuronales biológicas.

En ambos casos, el mecanismo mediante el cual funciona la cognición biológica puede ser emulado usando computadores. Por consiguiente, el conocimiento es independiente de la materialidad y puede ser producido y reproducido de manera artificial sin requerir corporalidad o subjetividad5. Así, tanto el conexionismo como el simbolismo apuntan a construir una máquina localizada en el punto cero, desde perspectivas sobre la cognición ciegas a sus propios límites epistémicos y excluyentes frente a otras maneras de entender la cognición y la inteligencia. Según el Indigenous Protocol and Artificial Intelligence Working Group6:

Nos preocupa que las epistemologías racionales sobre las que se está desarrollando la IA, son muy limitadas en su rango imaginativo, sus marcos interpretativos y su lenguaje para interactuar de manera significativa con las nuevas ontologías que serán creadas por futuras generaciones de sistemas de cómputo. Si insistimos en pensar en estos sistemas solamente desde la perspectiva tecno-utilitaria de Occidente, no comprenderemos de manera plena lo que son y pueden ser. (Lewis et al., 2020, p. 6)7

Exponer los límites que estas perspectivas epistémicas tienen para comprender la realidad no constituye una posición anticientífica. Por el contrario, visibilizar los límites nos sitúa en una perspectiva de justicia epistémica que abre la puerta al diálogo entre diferentes ontoepistemes, incluyendo la científica, para comprender de manera plural lo que entendemos por inteligencia, saber y conocimiento. Esto implica visibilizar otras perspectivas sobre la cognición que puedan liberar el desarrollo de la IA de los límites autoimpuestos, tanto por las perspectivas aquí mencionadas como por el capitalismo tecnocentrista que guía los intereses de Silicon Valley. La superación de estos límites involucra también un cambio en las posturas éticas y políticas que han enmarcado el avance de la IA, que puede empezar por visibilizar cómo la lógica de la colonialidad ha guiado los procesos de explotación, opresión y exclusión que han hecho posible el desarrollo de estas tecnologías.

La inteligencia artificial y la colonialidad de los algoritmos

Las tecnologías que se han desarrollado en la modernidad tienden a reproducir la geometría de poder de la que emergieron y que ha sido ampliamente examinada por las teorías decoloniales. Desde esta perspectiva, la colonización produjo un orden social racista y patriarcal, sustentado en un control epistémico con soporte en discursos y prácticas positivistas, mediante las cuales se convierte a los sujetos coloniales en objetos de estudio y mercancías (Mendoza, 2021; Mignolo, 2019; Pachón Soto, 2023). Esta cosificación ha permitido el dominio y la expropiación del territorio y los recursos económicos de los sujetos coloniales, así como de su trabajo y sus conocimientos. Dicha lógica de dominación se ha mantenido hasta la tercera década del siglo XXI, momento en el que se materializa mediante la datificación de la vida cotidiana, para producir lo que Miceli y Posada (2022), Posada (2021) y Shakir et al. (2020) han denominado la colonialidad de los algoritmos.

• Marilyn, pintura, acrílico sobre lienzo (196 x 143 cm) | Serie Recortes de Prensa. Andrés Orjuela, 2016

La colonialidad de los algoritmos se expresa tanto en los procesos de extracción de datos de comportamiento humano, para transformarlos en dispositivos de control biopolíticos, como en la intensiva labor humana que la IA requiere para su entrenamiento y funcionamiento, la cual se realiza de manera predominante en el Sur global en condiciones de profunda explotación. Ambos procesos parecen hacerse invisibles en la política pública y en el uso cotidiano de las tecnologías que dependen de algoritmos e IA para su operación (Shakir et al., 2020), e implican la expropiación de los saberes locales que quedan, a manos de las compañías que dominan el desarrollo de estas tecnologías.

En otras palabras, la relación entre el actual desarrollo de estas tecnologías y la lógica de la colonialidad se cristaliza no solamente en la imposibilidad de sus presupuestos ontoepistémicos para dialogar con otros saberes, especialmente aquellos que por su naturaleza relacional no pueden desligarse de la materialidad en la que surgen, sino también en la enorme capacidad de la IA para apropiarse de ellos con el fin de crear y mantener mecanismos biopolíticos que reducen la autonomía, al tiempo que incorporan las lógicas opresivas y excluyentes de la modernidad.

Así, plantear alternativas pluriversales para desarrollar tecnologías similares a la IA, o IA no-coloniales, requiere abrir espacios de autonomía tecnológica, desde donde se piensen en sistemas de cómputo que, de alguna manera, no reduzcan la realidad a su representación en datos. No obstante, abrir esos espacios requiere primero hacer visible la manera en que los algoritmos y la IA se relacionan con la colonialidad.

La inteligencia artificial y el capitalismo de vigilancia

La expansión del acceso a Internet y a las tecnologías digitales que ha tenido lugar durante las primeras tres décadas del presente siglo ha implicado un cambio fundamental en los mecanismos de control biopolítico que son necesarios para el funcionamiento de la matriz colonial de poder. Este cambio ha derivado en la aceptación de la vigilancia de todas nuestras prácticas sociales, para extraer datos sobre nuestro comportamiento que luego son procesados por IA, con el propósito de modificar paulatinamente la manera en que las personas conocen la realidad. Siguiendo a Soshana Zuboff (2020), las corporaciones tecnológicas están mercantilizando la capacidad de controlar los futuros humanos a nivel individual y personalizado.

El giro se dio cuando Google descubrió que podía usar datos tales como el tiempo de uso de la barra de búsqueda o los signos de puntuación usados en los correos electrónicos para inferir patrones de comportamiento. El proceso se expande con el advenimiento de las redes sociales, que les permiten a empresas como Meta obtener datos aún más precisos sobre las emociones, los intereses y los patrones de comportamiento, para predecir los estímulos neuropsicológicos más efectivos y capturar la atención de una persona individualmente. Este proceso sucede de la siguiente manera8:

  • Las corporaciones tecnológicas usan dispositivos de vigilancia para extraer datos sobre el comportamiento. Con el advenimiento de los dispositivos vestibles, como los relojes inteligentes, estas compañías son capaces de medir cuánto tiempo pasa una persona viendo un contenido determinado, cambios en el pulso cardiaco, las personas con que se comunica y los lugares que frecuenta.
  • Las IA usan modelos de comportamiento basados en neuropsicología, para encontrar patrones de comportamiento y crear un modelo abstracto y descorporizado de una persona. Este proceso cosifica a las personas al transformarlas en datos, es decir, en la materia prima de la producción del capitalismo de vigilancia.
  • Esto le permite a las IA identificar los estímulos emocionales más efectivos para modificar de manera paulatina, pero muy precisa, las percepciones y las decisiones de las personas. Estos cambios nunca son drásticos, por el contrario, son muy sutiles, pero siempre son acumulativos.

Para Zuboff, esta capacidad de influir de manera muy precisa en las decisiones y los comportamientos que las personas tendrán en el futuro cercano implica, en últimas, que en el capitalismo de vigilancia las corporaciones tecnológicas mercantilizan los futuros de las personas, es decir, que el capitalismo de vigilancia genera y depende de un mercado de futuros humanos. La idea de Zuboff resuena con la manera en que Escobar (2016, p. 70) parte de la ontología política para describir cómo “el diseño moderno ha sido fundamental para la creación sistemática de la insostenibilidad y la eliminación de futuros (desfuturización)”. En este sentido, el diseño actual de la IA, al partir de una ontología dualista y una epistemología hiperracional, orientada únicamente hacia la acumulación de capital, tiene como efecto no solamente mercantilizar los futuros humanos, sino reducirlos a las decisiones de un agente artificial homogeneizador que elimina la multiplicidad de posibilidades existente en la indeterminación propia de la subjetividad humana.

Así, el análisis de Zuboff da luces importantes para comprender cómo los algoritmos se relacionan con una reconfiguración de los ensamblajes mediante los cuales se reproduce la matriz colonial de poder en el siglo XXI, momento en el que se definen los mecanismos para convertir al cuerpo y sus acciones en lugares de expropiación, no solamente del conocimiento y la fuerza de trabajo, sino de la agencia humana. El proceso está en plena expansión, pues una mayor cantidad de datos permite a las IA refinar los modelos que son claves en este proceso de control biopolítico, lo que requiere una mayor vigilancia, para obtener más datos biométricos sobre una variedad más grande de actividades humanas. Por ello, las corporaciones tecnológicas usan estas tecnologías para robustecer el mecanismo biopolítico, haciendo que las personas aceptemos mayores niveles de vigilancia sobre cada vez más dimensiones de nuestras vidas.

El capitalismo de vigilancia ha resultado en una centralización del poder sin precedentes a nivel global, y una reconfiguración geopolítica del sistema mundo colonial (Couldry y Mejias, 2021). Así, las grandes compañías tecnológicas hacen pruebas de sus IA y los métodos que estas usan para incrementar el control biopolítico en países del Sur global, los cuales en muchas ocasiones son dependientes de las inversiones de compañías como Meta, Starlink o Huawei para poner en funcionamiento la infraestructura que les permite acceder a Internet (Birhane, 2020).

La ejecución de algoritmos de AA e IA es crucial para el capitalismo de vigilancia, pues estos habilitan la recolección y el procesamiento de datos. Por ende, los problemas éticos alrededor de estas tecnologías no pueden restringirse a discusiones sobre la privacidad de la data y los sesgos en las bases de datos usadas en los procesos de AA. Por el contrario, los debates deben girar hacia reflexiones sobre cómo el actual desarrollo e implementación de IA reproduce de manera sistemática las estructuras de dominación y opresión colonial. Esta opresión también se ve en la explotación de trabajadores y trabajadoras el en Sur global, cuya labor es fundamental para el desarrollo de IA.

• Elvis (fragmento), pintura, acrílico sobre lienzo (196 x 143 cm)| Serie Recortes de Prensa. Andrés Orjuela, 2016

La colonialidad en el trabajo que hace posible la inteligencia artificial

Los procesos de AA tras las IA que se están desarrollando en la actualidad requieren trabajo humano en aspectos tan variados como: recopilación o generación de datos, clasificación o segmentación de data, testeo de los resultados de la IA, y personificación de esta última (Miceli y Posada, 2022). La recopilación o generación de datos involucra tareas como tomar fotos o escribir textos. Las de clasificación o segmentación (en ingles labeling) implican la categorización y el ordenamiento de datos dentro de unos parámetros preestablecidos. El testeo implica evaluar si los outputs de las máquinas en los procesos de AA son correctos o no. Finalmente, la personificación implica hacerse pasar por una IA, engañando a las y los usuarios de esta.

Estas labores son extremadamente intensivas en términos del trabajo necesario para su realización. Por este motivo, suelen llevarse a cabo predominantemente en países como Venezuela, por medio de plataformas de freelancing, donde la mano de obra no solamente es tercerizada, sino que carece de cualquier protección de sus derechos laborales (Posada, 2021). Este ensamblaje crea condiciones laborales de altísima precarización mediante un dispositif9 de explotación de los trabajadores de los datos. Miceli y Posada (2022) investigaron cómo este dispositif, que se ha puesto en marcha en el trabajo de data realizado en Venezuela y Argentina, se compone de tres partes.

La primera son las prácticas discursivas expresadas en las instrucciones que reciben los trabajadores, que suelen reproducir los presupuestos epistémicos de la colonialidad. Por ejemplo, tareas en las cuales se deben clasificar fotografías de personas en categorías raciales o de género construidas por las empresas contratantes que suelen reproducir la idea de la neutralidad de la blanquitud y la masculinidad. Así mismo, a las y los trabajadores latinoamericanos se les pide generar data en español “neutro”, lo que presupone la superioridad de algunas formas de hablar esta lengua y permite la homogeneidad lingüística. Estos procesos de clasificación y generación de datos son necesarios para el AA, ya que estructuran la data que las máquinas usan para aprender. Sin embargo, las y los trabajadores no pueden influir de manera activa en esta estructuración para cambiarla, pues debido a la precarización laboral a la que están sometidos deben aceptarla.

La segunda parte del dispositif, son las prácticas no discursivas mediante las cuales se adoptan y aceptan dichas instrucciones. Así, aun cuando muchas personas contratadas por medio de plataformas encuentren las instrucciones contradictorias, excluyentes, opresivas o simplemente estúpidas, las condiciones de precarización laboral las llevan a desarrollar y compartir estrategias para cumplir con las tareas asignadas. Por ejemplo, escribir y refinar guías que expliquen la manera en que las compañías contratantes entienden las taxonomías usadas en los procesos de categorización de datos.

De esta manera, las instrucciones se materializan en artefactos usados para realizar las tareas del trabajo. Estas materializaciones son la tercera parte del dispositif, junto con las plataformas tecnológicas que habilitan estas formas de trabajo tercerizado. Aparte de las guías autogestionadas, estas materializaciones incluyen las plataformas usadas para contratar la mano de obra, las interfaces que las y los trabajadores deben usar para realizar las tareas asignadas y los algoritmos que vigilan su labor.

Este dispositif centraliza el poder en las corporaciones tecnológicas, habilitándolas para controlar la subjetividad de los y las trabajadoras, perpetuando así la lógica de dominación colonial mediante la captura de los conocimientos encarnados en el cuerpo y las prácticas adoptadas por los y las trabajadoras que se localizan en el Sur global, y usarlos para continuar explotando su trabajo y medios de producción. Al hacerlo, el dispositif cierra la posibilidad a otras perspectivas epistémicas de participar en el proceso de desarrollo e implementación de la IA, limitándolo al afán extractivo y controlador del teocentrismo capitalista del siglo XXI.

Si se tiene en cuenta este panorama, pareciera que el advenimiento de la IA implicase un proceso de no retorno hacia un control totalizante de las subjetividades humanas (y no humanas), más aún cuando la adopción de estas tecnologías se muestra como inevitable. Por tanto, se hace necesario ampliar el horizonte imaginativo sobre el que estas tecnologías se construyen, abriendo la posibilidad a desligar las IA de la lógica de la colonialidad, para usarlas como una herramienta de emancipación en el mundo contemporáneo. En otras palabras, y de acuerdo con Lewis et al. (2020), la IA debe dejar de ser vista como un mecanismo hiperracional autónomo y libre de subjetividad, y empezar a ser vista desde una ontología relacional que supere las visiones antropocéntricas sobre la inteligencia y la cognición. Así, es necesario desacralizar al dios en la máquina, reconociendo los límites que impone la representación de la realidad en un sistema de símbolos lógico-matemáticos, especialmente en términos de la desconexión que esto implica de su materialidad. Este proceso requiere localizar la IA fuera del punto cero y crear una infraestructura para la autonomía tecnológica; es decir, diseñar e implementar diferentes formas de datificación, AA e IA desde una pluralidad de perspectivas ontoepistémicas y proveyendo las condiciones materiales para su realización. Así, se abre un arcoíris de posibilidades para futuros-otros, en los cuales las máquinas no sean mecanismos de control, sino herramientas para construir autonomía, cuidado y justicia ambiental y epistémica. En otras palabras, debemos sacar al dios de la máquina.

Localizando a la inteligencia artificial fuera del punto cero mediante la ampliación de los horizontes imaginativos en su diseño e implementación

El horizonte imaginativo sobre el cual se han construido las IA está confinado a los límites ontoepistémicos del dualismo cartesiano y la lógica de proposiciones, lo que deriva en la producción y reproducción de ensamblajes de prácticas socioculturales que derivan en la homogeneización y mercantilización de los futuros humanos y no humanos, lo que Escobar (2016) llamó la desfuturización. Desde este horizonte, la IA se ve como una máquina de racionalidad pura, descorporeizada, sin emociones ni subjetividad. Una máquina que está localizada en el punto cero, desde donde puede producir conclusiones objetivas sobre la realidad, excluyendo la pluralidad de conocimientos que existe en nuestro planeta (Lander et al., 1993; Patel, 2020). Por tanto, las soluciones a los problemas sobre la IA que se han señalado en este artículo deben buscarse en otros lugares de enunciación.

• Patty Heirst (fragmento), pintura, acrílico sobre lienzo (196 x 143 cm) | Serie Recortes de Prensa. Andrés Orjuela, 2016

De acuerdo con la propuesta de Escobar (2016) sobre el diseño pluriversal para la autonomía, debemos tener en cuenta que todo proceso de diseño es ontológico, puesto que el diseño crea realidades posibles, y esas realidades crean posibilidades de diseño. Así, para abrir las posibilidades a futuros plurales en un planeta cuyo ensamblaje contiene tecnologías digitales, como la IA, es menester ampliar los horizontes imaginativos sobre los que diseñamos estas tecnologías. Para esto debemos preguntarnos cuáles son los mundos reales que se relacionan con la IA y cuáles son los mundos a los que queremos llegar con esta tecnología. Las respuestas a esta pregunta deben ser consideradas y escuchadas desde una perspectiva plural, teniendo en cuenta que la realidad es mucho más que aquello que las ontoepistemologías occidentales han logrado comprender (Santos, 2014; Santos y Martins, 2020).

Esta escucha implica entablar diálogos interepistémicos sobre las IA que habiliten la creación de condiciones para que la pluralidad imaginativa guie las prácticas socioculturales alrededor del diseño, la implementación y la adopción de la IA. Esto solo es posible mediante un proceso de autonomía relacional, es decir, un proceso en el que coexistan y convivan diferentes formas de conocer las cogniciones e inteligencias humanas y no humanas. Así, el diseño de IA puede partir de las siguientes tesis sobre el diseño ontológico:

  1. toda comunidad practica el diseño de sí misma; 2) toda persona o colectivo es practicante de su propio saber; 3) lo que la comunidad diseña es, en primera instancia, un sistema de investigación o aprendizaje sobre sí misma; 4) cada proceso de diseño implica un enunciado de problemas y posibilidades; y 5) este ejercicio puede involucrar la construcción de un “modelo” del sistema que genera el problema de preocupación comunal. Una sexta tesis, implícita en las cinco anteriores, es que todo enunciado de un problema (una expresión de preocupación) siempre implica un enunciado de solución (una expresión de disoñación) (Gómez Liendo, 2018, p. 203).

A continuación, pondré a dialogar estos enunciados del diseño pluriversal y autónomo con el desarrollo actual de inteligencias artificiales. La primera tesis hace referencia a que todo grupo social está constantemente inmerso en un proceso colectivo e intencional de creación y recreación mediante el cual crea su propia realidad. Dicho proceso tiene lugar siempre de manera relacional, en interacción con otros grupos humanos, discursos y estructuras de poder (Escobar, 2016). En la actualidad, en dichos procesos de diseño autónomo están embebidas las tecnologías digitales, incluyendo no solo las TIC, sino el AA y la IA. Sin embargo, estos procesos de diseño están guiados por los presupuestos descritos con anterioridad.

Dado que cada persona o colectivo practica su propio saber, como lo indica la tesis 2 , no es de extrañar que diferentes comunidades usen dichas tecnologías desde su perspectiva ontoepistémica, lo que implica adaptaciones y usos diferentes de dichas tecnologías que habilitan el autoaprendizaje y la coconstrucción de conocimiento de manera plural, de conformidad con la tesis 3. Un ejemplo de cómo este proceso sucede, puede verse en algunas comunidades aborígenes australianas que han usado redes sociales, una tecnología propia del capitalismo de vigilancia, para abrir espacios donde la Generación Robada10 pudiese encontrarse para reconstruir sus vínculos y conocimientos ancestrales (Carlson Frazer, 2021). Este uso de tecnologías digitales muestra que es posible encontrar fisuras en el actual ensamblaje tecnológico, desde las cuales se pueden descolonizar dichas tecnologías. No obstante, el potencial emancipatorio de dichas fisuras es aún limitado, puesto que las tecnologías en y de donde surgen son controladas por grandes corporaciones tecnológicas. De tal manera, para continuar con su descolonización es crucial considerar las implicaciones de usar algoritmos sobre los que no tenemos control como mediadores en los procesos de reconstrucción de memoria e identidad como el de la Generación Robada (Gasparotto, 2016).

En el actual contexto sociotecnológico, caminar hacia la justica epistémica requiere autonomía y soberanía tecnológica. A partir de la tesis 5, el desarrollo y la implementación plural de la IA requiere construir modelos de datificación y AA de manera comunitaria y desde perspectivas otras, lo que llevaría a enunciar nuevos problemas y soluciones desde y dentro de paradigmas comunitarios para el desarrollo de tecnología. Esta autonomía requiere una pluralidad de conocimientos otros que amplie los horizontes imaginativos del diseño de las IA, introduciendo nociones alternativas sobre la cognición, la tecnología y nuestras relaciones con lo no humano (Lewis et al., 2020). Si bien, el objetivo de este artículo no es ofrecer dichos modelos alternativos, a continuación se muestran algunas alternativas de desarrollo de IA enmarcadas en luchas por justicia epistémica y autonomía tecnológica.

La primera de ellas emerge del trabajo realizado en el marco del Primer Taller de Creación de Prototipos Robots Indígenas, llevado a cabo en New South Gales, Australia en el 2014 (Abdilla, 2018; Abdilla y Fitch, 2017). En el taller, niños aborígenes fueron instruidos para construir modelos de datos para ser usados en la programación de robots. De manera autónoma, los niños debían crear un robot que pudiese seguir ciertas coordenadas en el espacio. Para espacializar el movimiento del robot, los niños partieron los protocolos aborígenes de cartografía, en los cuales los mapas se componen de líneas de canciones, es decir, el dibujo del espacio debe ser leído mediante el canto y la danza. En ese sentido, es una codificación relacional de sus territorios ancestrales, que sigue un protocolo el cual asegura la validez del conocimiento allí codificado. La oralidad, el cuerpo, los rituales y el territorio se interconectan en estos mapas mediante un pensamiento de patrones (o pattern thinking en inglés) que refleja la profunda relacionalidad entre comunidad, saber y territorio. En ese sentido, la combinación entre canto, danza y dibujo permite espacializar el valor, el significado y la vida que está en las rocas, los ríos, los lagos y otras entidades del territorio. Así, la codificación no consiste en atomizar y abstraer la realidad en bits, para usar diferentes modelos de AA y encontrar patrones en los datos, sino en representar de manera relacional, corpórea y situada su saber (Abdilla, 2018).

A diferencia de la búsqueda e identificación de patrones desde la perspectiva hegemónica de la IA, que se basa en lógica proposicional y modelos estadísticos, el pensamiento en patrones descrito por Abdilla y Fitch (2017) parte de

[…] nuestra interrelación profundamente ecológica con todo y con todos. Si observáramos el territorio (Country) desde la distancia, podríamos ver, como lo hicieron los niños del Taller de Robótica Indígena a través de sus mapas de tiza, la complejidad de las líneas que lo atraviesan, representando diferentes aspectos de nuestra sociedad, cultura, comunidad, Naciones: objetos inanimados y animados, fauna y flora, cielo y mar y el país mismo. Todos somos uno y nada tiene más importancia que cualquier otro aspecto. El Reconocimiento de Patrones es un sistema sincrónico e inteligente, una red en la que todas las partes tienen el mismo valor, incluida la humanidad. Es multidimensional e incluye lo “sin vida”, también conocido como lo metafísico y lo cósmico. Es ser y saber a la vez; epistemología y ontología; complejo pero armonioso en su simplicidad: es el sistema nervioso central Indígena. Repetidamente cantado desde tiempos inmemoriales, la encarnación del Reconocimiento de Patrones supera el saber y el conocimiento, y se convierte en ser a nivel celular (p. 10)11

Por esto, el protocolo para construir IA desde una perspectiva aborigen debe basarse en una manera diferente de entender la cognición. Esta no es exclusiva de los seres humanos, sino que se comparte incluso con entidades que desde Occidente se consideran inertes, inexistentes o inmateriales, como las de los mundos espirituales. Por ende, las cogniciones artificiales deben ser pensadas más allá de los cánones antropocéntricos y logocéntricos de acuerdo con los cuales se desarrolla actualmente. Al contrario, la IA se desarrollaría en una relación simbiótica con los seres vivos y los saberes, siempre situada en un territorio. Esto despertaría otras maneras de pensar las interconexiones entre tiempo, espacio y masa, de manera que la tecnología asista y participe de esta interconexión, en lugar de atomizarla (Abdilla, 2018, p. 15).

De manera similar, el Indigenous Protocol and Artificial Intelligence Working Group diseñó un prototipo de IA desde las perspectivas epistémicas de varios grupos indígenas en el Océano Pacífico (Lewis et al., 2020). Su diseño partió de las siguientes preocupaciones: i) soberanía de hardware y software, es decir, tener control sobre todo el ensamblaje físico y simbólico que constituye una IA; ii) construir IA que en lugar de reforzar la dicotomía objeto/sujeto se enmarque en ontologías relacionales no antropocéntricas; iii) asegurar que las IA comprendan y respeten los territorios de las comunidades indígenas que las diseñan (y los de otras comunidades), así como los lenguajes y las culturas que emergen en ellos, con el objetivo de que la IA permita relacionarse con el territorio en lugar de explotarlo; iv) IA que puedan comprender la manera en que diferentes comunidades indígenas producen y comparten conocimiento, y asegurar que los valores comunales estén imbuidos en la manera en que la IA aprende y evoluciona; y v) construir relaciones de mutuo cuidado con entidades artificiales.

Su prototipo de IA, llamado Hua Ki‘i, apunta a innovar en explorar cómo usar perspectivas indígenas en el diseño y la implementación de tecnologías digitales para crear una aplicación de traducción que no parte de una gramática universal, sino del pensar el lenguaje como un repositorio de conocimiento ancestral situado en un territorio (Lewis et al., 2020, p. 14). El proceso de diseño incorporó discusiones sobre cómo las perspectivas indígenas hawaianas pueden alinearse con las competencias computacionales de los modelos estadísticos usados en la programación de algoritmos de AA. La reflexión giró en torno a la idea de que el conocimiento de las comunidades involucradas en el diseño del prototipo se ha beneficiado del intercambio entre tecnologías orales e impresas para revitalizar sus lenguajes (Running Wolf, 2020). Así, el prototipo se orienta a asistir a las comunidades hawaianas en organizar y estructurar datos con base en su conocimiento ancestral para reconstruir los sistemas de transmisión de este. El prototipo Hua Ki‘i usa la cámara del teléfono para detectar las entidades que existen en el mundo físico, y provee el nombre o las frases que describen estas entidades en la lengua Õlelo Hawai‘i. Finalmente, siguiendo las preocupaciones de soberanía de hardware y software, el prototipo fue desarrollado en código abierto, con una licencia que impide su comercialización. Esto evita que sus saberes sean mercantilizados, mientras abre las puertas para que cualquier comunidad lo pueda adaptar a sus necesidades.

• Elvis (fragmento), pintura, acrílico sobre lienzo (196 x 143 cm) | Serie Recortes de Prensa. Andrés Orjuela, 2016

Ambas aproximaciones comparten intereses de variadas comunidades del Sur global por descolonizar sus futuros tecnológicos, y proveen algunas herramientas para la autonomía tecnológica. Esto habilita a diferentes comunidades para ampliar los horizontes de la IA desde ontoepistemes relacionales que no pueden ser fácilmente reducidas a la datificación, al mismo tiempo que se extienden las posibilidades de interrelacionarnos con ellas y otras tecnologías digitales.

Sin embargo, es probable que estas discusiones y prototipos se limiten debido al lenguaje. Tanto las comunidades aborígenes de New South Gales como las comunidades indígenas de Hawái usan el inglés de manera cotidiana. Esto les permite, por un lado, entender de manera más sencilla los lenguajes de programación más usados, cuya base es precisamente el inglés, así como acceder a documentación, librerías12, scripts y otros artefactos que son necesarios para crear IA. El hecho de que dichos recursos no se encuentren en otros idiomas ha generado barreras para la autonomía tecnológica en diversos lugares del Sur global, donde deben, o bien aprender inglés, o traducir los lenguajes de programación (Loban, 2018).

En ese sentido, es necesaria una descolonización de la IA, que no se puede dar sino mediante la construcción de autonomía tecnológica, lo que requiere construir lenguajes de programación plurales y multilingües que puedan codificar la realidad de manera relacional como en la cartografía aborigen, en lugar de atomizada como en el simbolismo. Dichas formas de codificar implican nuevas aproximaciones a la AA que reconozcan diferentes formas de cognición y subjetividades más que humanas. Adicionalmente, se debe buscar democratizar el acceso a hardware de primera línea, de tal manera que se permita a diferentes comunidades diseñar y prototipar desde su propia perspectiva

Estos ejemplos, y sus limitantes, muestran que el diseño y el desarrollo plural de la IA desacralizan al dios en la máquina, exponiendo sus puntos ciegos y sus límites para conocer la realidad, abriendo la puerta a la emancipación de la colonialidad de los algoritmos y la IA, junto con sus pretensiones de universalidad tecnocentrista y capitalista, para construirlas desde una pluralidad epistémica que abra la puerta a otros futuros posibles.

Notas

  1. Para una explicación básica del aprendizaje automatizado se recomienda Theobald (2021), y para una explicación detallada del deep learning y las redes neuronales artificiales véase Montesinos López et al. (2022).

  2. Un bit es una corriente eléctrica que representa un digito binario, es decir, un 1 o un 0.

  3. Si bien la IA desde la perspectiva conexionista se ha explicado a partir de la metáfora cerebro/computador, que usualmente termina por antropomorfizar esta tecnología, en este artículo dicha analogía se explora no para antropomorfizar la IA, sino para mostrar cómo esta termina siendo presentada como un cerebro sin agencia. Para una exploración profunda de esta analogía véase Baria y Cross (2021).

  4. La filosofía analítica continúa la tradición filosófica planteada por Russell, quien a su vez se ha visto influido por la filosofía de Leibniz, en cuyo pensamiento es fundamental el influjo de la teoría de las formas de Platón. Sin embargo, el conexionismo trata de superar la división cartesiana al considerar que la conciencia es un fenómeno producido por la materia, y por ende las res-cogitans solo existe dentro, y como consecuencia, de la res-extensa.

  5. No obstante, para el conexionismo (especialmente en la versión del naturalismo biológico de Searle), al igual que la inteligencia, la subjetividad, la conciencia y la qualia son estados neurológicos producido por el cerebro humano. Por tanto, el fin último de la IA debe ser reproducir estas cualidades de la mente de manera artificial (Youheng, 2023).

  6. Este grupo de estudio se encuentra conformado por investigadores y académicos indígenas y no indígenas, quienes se reunieron durante veinte meses en más de veinte lugares alrededor del Pacífico. Su propuesta plantea una apertura hacía el desarrollo de IA de acuerdo con cánones éticos abiertos a la pluralidad epistémica.

  7. Traducción del autor.

  8. Con miras a la brevedad, estoy sintetizando el complejo proceso de extracción descrito por Zuboff (2020).

  9. En el sentido foucaultiano de la palabra.

  10. Durante el siglo XX y hasta la década de 1970, las políticas racistas de la Australia blanca derivaron en el secuestro de niños mestizos y aborígenes, que eran tomados de sus comunidades para ser criados como sirvientes de las familias blancas australianas. Este proceso de borramiento de la memoria y la identidad se ha conocido como la Stolen Generation o la Generación Robada.

  11. Traducción del autor.

  12. Colecciones de recursos de programación.

Referencias bibliográficas

  1. ABDILLA, A. (2018). Beyond Imperial Tools: Future-Proofing Technology through Indigenous Governance and Traditional Knowledge Systems. En Decolonising the Digital: Technology As Cultural Practice (pp. 67-81). Tactical Space Lab. Disponible en: http://ojs.decolonising.digital/index.php/decolonising_digital/article/view/BeyondImperialTools

  2. ABDILLA, A. y Fitch, R. (2017). Indigenous Knowledge Systems and Pattern Thinking: An Expanded Analysis of the First Indigenous Robotics Prototype Workshop. The Fibreculture Journal, 28, 90-103. Disponible en: https://doi.org/10.15307/fcj.28.205.2017

  3. BARIA, A. y Cross, K. (2021). The Brain is a Computer is a Brain: Neuroscience’s Internal Debate and the Social Significance of the Computational Metaphor. Disponible en: https://doi.org/https://doi.org/10.48550/arXiv.2107.14042

  4. BIRHANE, A. (2020). Algorithmic Colonization of Africa. SCRIPT-ed, 17(2), 389-409. Disponible en: https://doi.org/10.2966/scrip.170220.389

  5. BRACHMAN, R. J. (1988). The Basics of Knowledge Representation and Reasoning. ATT Technical Journal, 67(1), 7-24. Disponible en: https://doi.org/10.1002/J.1538-7305.1988.TB00230.X

  6. CARLSON, B. y Frazer, R. (2021). Indigenous Digital Life. Springer International Publishing. Disponible en: https://doi.org/10.1007/978-3-030-84796-8

  7. CASTRO-GÓMEZ, S. (2005). La hybris del punto cero: ciencia, raza e ilustración en la Nueva Granada, 1750-1816. Pontificia Universidad Javeriana.

  8. COULDRY, N. y Mejias, U. A. (2021). The Decolonial Turn in Data and Technology Research: What is at Stake and Where is it Heading? Information, Communication Society, 26(4), 786-802. Disponible en: https://doi.org/10.1080/1369118X.2021.1986102

  9. DESAI, J., Watson, D., Wang, V., Taddeo, M. y Floridi, L. (2022). The Epistemological Foundations of Data Science: A Critical Review. Synthese, 200(6), 1-27. Disponible en: https://doi.org/10.1007/S11229-022-03933-2/METRICS

  10. ESCOBAR, A. (2016). Autonomía y diseño: la realización de lo comunal (C. Gnecco, Trad.). Universidad del Cauca.

  11. GASPAROTTO, M. (2016). Digital Colonization and Virtual Indigeneity: Indigenous Knowledge and Algorithm Bias. Disponible en: https://doi.org/10.7282/T3XG9TFG

  12. GENERAL INTERACTIVE Co. (2022). Chinatown Detective Agency. General Interactive Co. Humble Games.

  13. GÓMEZ LIENDO, M. J. (2018). Más allá de la formación onto-epistémica patriarcal, capitalista y moderno-colonial: un ensayo sobre “Autonomía y diseño” de Arturo Escobar. Iberoamérica Social: Revista-Red de Estudios Sociales, IX, 196-205. Disponible en: https://iberoamericasocial.com/mas-alla-la-formacion-onto

  14. HERMANN, I. (2023). Artificial Intelligence in Fiction: between Narratives and Metaphors. AI and Society, 38(1), 319-329. Disponible en: https://doi.org/10.1007/s00146-021-01299-6

  15. JAIN, S. M. (2022). Introduction to Transformers for NLP: With the Hugging Face Library and Models to Solve Problems. Apress. Disponible en: https://doi.org/10.1007/978-1-4842-8844-3/COVER

  16. JARRAHI, M. H., Askay, D., Eshraghi, A. y Smith, P. (2023). Artificial intelligence and knowledge Management: A Partnership between Human and AI. Business Horizons, 66(1), 87-99. Disponible en: https://doi.org/10.1016/J.BUSHOR.2022.03.002

  17. LANDER, E., Castro-Gómez, S., Coronil, F., Dussel, E., Escobar, A., Segrera, F. L., Mignolo, W., Moreno, A. y Quijano, A. (1993). En E. Lander (ed.), La colonialidad del saber: eurocentrismo y ciencias sociales. Perspectivas latinoamericanas. Clacso.

  18. LEWIS, J., Abdilla, A., Arista, N., Baker, K., Benesiinaabandan, S., Brown, M. B., Cheung, M., Coleman, M., Cordes, A., Davison, J., Duncan, K., Garzon, S., Harrell, D. F., Jones, P., Kealiikanakaoleohaililani, K., Kelleher, M., Kite, S., Lagon, O., Leigh, J., … Whaanga, H. (2020). Indigenous Protocol and Artificial Intelligence Position Paper. Disponible en: https://doi.org/10.11573/spectrum.library.concordia.ca.00986506

  19. LOBAN, R. (2018). Torres Strait Virtual Reality: Virtual Reality. En Decolonising the Digital: Technology as Cultural Practice (pp. 158-177). Tactical Space Lab.

  20. MARQUIS, P., Papini, O. y Prade, H. (eds.). (2020). A Guided Tour of Artificial Intelligence Research. Springer International Publishing. Disponible en: https://doi.org/10.1007/978-3-030-06164-7

  21. MENDOZA, B. (2021). Decolonial Theories in Comparison BT. En S. Shih y L. Tsai, (eds.), Indigenous Knowledge in Taiwan and Beyond (pp. 249-271). Springer. Disponible en: https://doi.org/10.1007/978-981-15-4178-0_12

  22. MICELI, M. y Posada, J. (2022). The Data-Production Dispositif. Proceedings of the ACM on Human-Computer Interaction, 6(CSCW2). Disponible en: https://doi.org/10.1145/3555561

  23. MICELI, M., Posada, J. y Yang, T. (2021). Studying Up Machine Learning Data: Why Talk About Bias When We Mean Power? Disponible en: http://arxiv.org/abs/2109.08131

  24. MIGNOLO, W. (2019). Reconstitución epistémica/estética: la aesthesis decolonial una década después. Calle 14 revista de investigación en el campo del arte, 14(25), 14-33. Disponible en: https://doi.org/10.14483/21450706.14132

  25. MONTESINOS LÓPEZ, O. A., Montesinos López, A. y Crossa, J. (2022). Fundamentals of Artificial Neural Networks and Deep Learning. En Multivariate Statistical Machine Learning Methods for Genomic Prediction (pp. 379-425). Springer. Disponible en: https://doi.org/10.1007/978-3-030-89010-0_10

  26. PACHÓN SOTO, D. (2023). El Grupo Modernindad/Colonialidad o las teorías decoloniales latinoamericanas. En Superar el complejo de hijo de puta. Para una introducción al pensamiento decolonial: fuentes, categorías y debates (pp. 85-124). Desde Abajo.

  27. PATEL, S. (2020). Sociology’s Encounter with the Decolonial: The Problematique of Indigenous vs that of Coloniality, Extraversion and Colonial Modernity. Current Sociology, 69(3), 372-388. Disponible en: https://doi.org/10.1177/0011392120931143

  28. POSADA, J. (2021). The Coloniality of Data Work in Latin America. AIES 2021 - Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society (pp. 277-278). Disponible en: https://doi.org/10.1145/3461702.3462471

  29. RUNNING WOLF, C., Running Wolf, M., Moses, C. y Davison, J. (2020). Development Process for Hua Ki‘i and Next Steps. En J. E. Lewis, A. Abdilla, N. Arista, K. Baker, S. Benesiinaabandan, M. Brown... H. Whaanga. Indigenous Protocol and Artificial Intelligence Position Paper (pp. 110-117). The Initiative for Indigenous Futures and the Canadian Institute for Advanced Research (CIFAR).

  30. SANTOS, B. de S. (2014). Epistemologies of the South: Justice Against Epistemicide. Paradigm Publishers.

  31. SANTOS, B. de S. y Martins, B. S. (Eds.). (2020). El Pluriverso de los Derechos Humanos. Akal.

  32. SCANNELL, K. P. (2022). Managing Data from Social Media: The Indigenous Tweets Project. En A. L. Berez-Kroeker, B. McDonnell, E. Koller y L. B. Collister (Eds.), The Open Handbook of Linguistic Data Management (pp. 481-488). The MIT Press. Disponible en: https://doi.org/10.7551/mitpress/12200.001.0001

  33. SHAKIR, M., Marie-Therese, P. y William, I. (2020). Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence. arXiv.

  34. SHARMA, A. K., Pareta, A., Meena, J. y Sharma, R. (2022, enero). A Long Term Impact of Artificial Intelligence and Robotics on Higher Education. 2022 International Conference on Advances in Computing, Communication and Applied Informatics (ACCAI). Disponible en: https://doi.org/10.1109/accai53970.2022.9752633

  35. SPENDER, J.-C. y Scherer, A. G. (2007). The Philosophical Foundations of Knowledge Management: Editors’ Introduction. Organization, 14(1), 5-28. Disponible en: https://doi.org/10.1177/1350508407071858

  36. ŠVELCH, J. (2019). Resisting the Perpetual Update: Struggles against Protocological Power in Video Games. New Media and Society, 21(7), 1594-1612. Disponible en: https://doi.org/10.1177/1461444819828987

  37. TANQUE, M. (2021). Knowledge Representation and Reasoning in AI-Based Solutions and IoT Applications. En Artificial Intelligence to Solve Pervasive Internet of Things Issues (pp.13–49). Academic Press. Disponible en: https://doi.org/10.1016/B978-0-12-818576-6.00002-2

  38. THEOBALD, O. (2021). Machine Learning for Absolute Beginners: A Plain English Introduction (3.a ed., col. 1). Independently published.

  39. TUEANRAT, Y., Papagiannidis, S. y Alamanos, E. (2021). Going on a Journey: A Review of the Customer Journey Literature. En Journal of Business Research (vol. 125, pp. 336–353). Elsevier. Disponible en: https://doi.org/10.1016/j.jbusres.2020.12.028

  40. YOUHENG, Z. (2023). A Historical Review and Philosophical Examination of the Two Paradigms in Artificial Intelligence Research. European Journal of Artificial Intelligence and Machine Learning, 2(2), 24-32. Disponible en: https://doi.org/10.24018/EJAI.2023.2.2.23

  41. ZUBOFF, S. (2020). The Age of Surveillance Capitalism: The Tight for a Human Future at The New Frontier of Power. Public Affairs.

• Elvis (fragmento) pintura, acrílico sobre lienzo (196 x 143 cm). | Serie Recortes de Prensa. Andrés Orjuela, 2016


Contáctenos

Revista Nómadas

Dirección de Investigación y Transferencia de Conocimiento

Carrera 5 No. 21-38

Bogotá, Colombia

Correo electrónico: nomadas@ucentral.edu.co