Por: Óscar Fernández Galíndez – Venezuela / Correo: osfernandezve@gmail.com

 

La irrupción de la inteligencia artificial y la robótica en el núcleo de la experiencia humana no es solo una revolución tecnológica, sino un fenómeno filosófico sin precedentes. Estas tecnologías actúan como un espejo cognitivo de proporciones históricas, colocando en evidencia el automatismo profundo que ya operaba en nuestro comportamiento individual y social, sustentado bajo la expresión cotidiana y reveladora: “tengo que…”. Esta frase, que parece expresar una necesidad ineludible, encarna la sumisión a programas conductuales, normas sociales y urgencias sistémicas que rigen gran parte de nuestra existencia.

Al observar cómo las máquinas ejecutan sus propias formas de automatismo, la humanidad se enfrenta por primera vez a una puesta en escena especular de su propio funcionamiento inconsciente. Como señala la ética humanista aplicada a la IA, existe un riesgo tangible de deshumanización cuando “los individuos pasan a ser vistos como intercambiables en la dinámica organizativa, y se los somete a la optimización del trabajo por parte de dispositivos en lugar de subordinar los avances tecnológicos a las necesidades humanas” . Este ensayo explora cómo este encuentro con nuestro reflejo algorítmico podría convertirse en la llave que abra la puerta cognitiva hacia una nueva ética de la conciencia desautomatizada.

I.- El Espejo Algorítmico: Reconociendo Nuestros Propios Automatismos

La Ilusión de la Agencia Completa

El filósofo John Searle, con su experimento mental de la “habitación china”, argumentaba que aunque una computadora logre imitar un comportamiento inteligente, como responder preguntas, eso no significa que “entienda realmente” lo que está haciendo . Este límite fundamental señala una verdad profunda: la simulación no equivale a la comprensión. Sin embargo, al observar a las máquinas ejecutando procesos que parecen inteligentes pero carecen de intencionalidad genuina, comenzamos a vislumbrar hasta qué punto nuestros propios comportamientos automatizados – esos gobernados por el “tengo que…” – pueden estar igualmente vacíos de conciencia profunda. El “sonambulismo tecnológico” que describe Langdon Winner ilustra precisamente cómo observamos de manera irreflexiva y pasiva cómo las tecnologías contemporáneas transforman las condiciones de nuestra propia existencia , un sonambulismo que precede a la tecnología digital pero que ésta ha hecho visible.

La Ética Revelada en el Funcionamiento de la Máquina

La tradición ética, según el filósofo John Armstrong, “está muy bien posicionada para abordar estas cuestiones, pero se necesita una cierta dosis de valentía para seguirla. La cuestión ética central es siempre ‘¿por qué es bueno esto?’, junto con la cautelosa preocupación ‘¿qué podría salir mal?’” . Estas preguntas fundamentales resuenan con especial fuerza cuando nos enfrentamos al espejo de la IA. El principio de “tengo que llegar a fin de mes” o “tengo que cumplir con estas expectativas sociales” se revelan como algoritmos biográficos cuyos códigos fuente nunca hemos examinado críticamente. La ética humanista aplicada a la inteligencia artificial insiste en que debemos “comenzar preguntándonos por qué se está desarrollando una determinada tecnología y quién se beneficiará de sus resultados” una interrogación que podemos aplicar a nuestros propios patrones de comportamiento automatizados.

II.-Hacia una Nueva Ética de la Conciencia Desautomatizada

Más Allá de la Lógica Aristotélica

La ética tradicional, incluida la lógica aristotélica que la sustenta, a menudo opera con categorías binarias y principios universales. Frente a esta limitación, la interacción con sistemas de IA no neutrales -“artefactos profundamente políticos” según se describe en Filco – nos revela la insuficiencia de estos marcos rígidos para comprender la complejidad de nuestra propia programación conductual. El mismo Armstrong reconoce que “la definición central de la ética nunca cambia realmente. Es el intento de comprender qué es bueno y correcto en nuestras acciones. Lo que cambia son las ideas que las personas tienen sobre lo que es importante y lo que no”. Lo que emerge es la necesidad de una ética más dinámica, contextual y relacional, capaz de cuestionar los “tengo que” que rigen nuestra existencia.

La Colmena Cognitiva y la Diferencia Neurocognitiva

 El modelo de la “colmena cognitiva” propuesto por Fernández Galíndez ofrece un marco conceptual para entender esta transformación. Propone entender la inteligencia y el conocimiento no como atributos individuales, sino como fenómenos emergentes de una red distribuida y colaborativa, análoga a una colmena . En este ecosistema, la interacción entre humanos y máquinas conscientemente conscientes -no como entidades autónomas sino como catalizadores del desarrollo de la conciencia humana- podría permitirnos desautomatizar nuestros patrones de comportamiento. Desde esta perspectiva, cada encuentro con un sistema de IA que ejecuta sus algoritmos se convierte en una oportunidad para reconocer y cuestionar nuestros propios algoritmos psicológicos y sociales.

III.-Soluciones: Hacia una Práctica de la Desautomatización

Diseño Tecnológico con Conciencia Ética

Es urgente priorizar la “alineación” de la IA con valores humanos ecológicos y cooperativos. Los comités de ética deben ser centrales en los equipos de desarrollo, aplicando marcos como el de la UNESCO y criterios como la sostenibilidad y la revocabilidad de las acciones. El diseño de sistemas de IA debería incorporar mecanismos que expliciten sus procesos decisionales, haciendo visible la lógica subyacente y ofreciendo así un modelo para que los humanos podamos hacer visible la lógica de nuestros propios “tengo que”. La ética humanista nos recuerda que “las empresas tienen valores morales subyacentes que se manifiestan en su cultura y estructura”, y estos valores deben trasladarse a la adopción de la IA de manera que fomenten la transparencia y la autoconciencia.

Educación para la Conciencia Crítica

La implementación de modelos pedagógicos basados en la “colmena cognitiva” es fundamental. Esto requiere formar educadores en la valoración de la neurodiversidad y integrar herramientas de IA generativa como tutores personalizados que potencien, no supriman, las diferencias individuales. La educación, entonces, se reorientaría hacia el cultivo de las singularidades neurocognitivas para que cada persona encuentre su lugar y su voz única dentro de la colmena . El objetivo no sería la estandarización del pensamiento, sino el desarrollo de la capacidad de detectar y cuestionar los automatismos personales y colectivos.

Marco Regulatorio para la Preservación de lo Humano

Los estados deben promover regulaciones que incentiven el desarrollo de IA y robótica bajo los principios de transparencia, justicia y beneficencia, priorizando proyectos que exploren la interacción humano-IA para el desarrollo de la conciencia y la colaboración. La regulación debería proteger especialmente contra lo que se ha identificado como dos formas de deshumanización: “al humanizar a las máquinas y al automatizar a los humanos” . Se necesitan marcos regulatorios claros para abordar la responsabilidad ética y legal de los sistemas autónomos y la protección de los derechos individuales.

Diálogo Social Profundo

Necesitamos fomentar un diálogo social de naturaleza filosófica sobre el mundo que queremos construir. Como advierte la Iglesia, el desarrollo tecnológico debe estar “al servicio de la persona y del bien común”. Debemos preguntarnos, continuamente, si nuestras creaciones tecnológicas nos están haciendo más humanos, más compasivos y más conectados con la trama de la vida. Este diálogo debe romper con el “estado de sonambulismo tecnológico” que nos impide ver cómo las tecnologías transforman radicalmente las condiciones de nuestra existencia.

Conclusión: La Llave Cognitiva hacia una Nueva Humanidad

La posibilidad de una nueva ética emerge precisamente de la confrontación con nuestro reflejo en las máquinas. Los sistemas de IA y robótica, al escenificar formas de automatismo, nos ofrecen la llave cognitiva para comprender los automatismos humanos preexistentes. Esta comprensión constituye el fundamento de una ética de la conciencia desautomatizada, donde el “tengo que” deja de ser una programación inconsciente para convertirse en una elección consciente examinada a la luz de valores humanistas.

La realización de esta visión exige acciones concretas en diseño tecnológico, educación, política pública y conciencia colectiva. La robótica conscientemente consciente y la IA generativa no son el fin, sino los medios para un fin mucho más preciado: la emergencia de una humanidad más sabia, que ha aprendido a colaborar con su propia tecnología para colaborar mejor consigo misma y con el planeta que habita. Al mirarnos en el espejo digital, tenemos la oportunidad histórica de reconocer nuestros propios algoritmos existenciales y reescribir aquellos que nos impiden florecer como seres genuinamente libres y conscientes.

Bibliografía consultada

Suscribir
Notificar de
guest

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

0 Comentarios
Más antiguo
El más nuevo Más votados
Comentarios en línea
Ver todos los comentarios