Algoritmización del mundo de la vida: crítica y propuestas para la desdiferenciación

Algorithmization of the World of Life: Criticism and Proposals for the De-differentiation

DOI: https://doi.org/10.69733/clad.ryd.n78.a214
Publicado
2020-01-01

Bárbara Urban

Resumen (es)

Jürgen Habermas habla de tecnocracia para referirse a la disociación del conjunto formado por la autocomprensión de la sociedad del sistema de referencia, la acción comunicativa y la interacción simbólica. Como resultado, se encuentra un uso politizado de elementos tecnológicos como los algoritmos, que han servido incluso para influir en procesos democráticos electorales. La solución a este hecho pasa por una puesta en práctica de la acción comunicativa, que dé pie al compromiso, adoptando así un modelo democrático deliberativo en el que participen las empresas como productoras de ciencia y tecnología.

Palabras clave (ES): Democracia, Relaciones Estado y Sociedad, Tecnocracia, Ciencia y Tecnología, Calidad de la Vida

Resumen (en)

Jürgen Habermas speaks about technocracy referring to the dissociation of the whole formed by the society’s self-understanding from the system of reference, the communicative action and the symbolic interaction. As a result, we find a politicized usage of technological elements, such as algorithms, which have even served to influence democratic electoral processes. The solution to this fact must involve a practical use of communicative action, to boost commitment, thus adopting a deliberative democratic model in which companies participate as producers of science and technology.

Palabras clave (EN): Democracy, State-Society Relationship, Technocracy, Science and Technology, Quality of Life

Bárbara Urban, Universidad Nacional de Educación a Distancia

Graduada en Antropología Social y Cultural por la Universidad Nacional de Educación a Distancia (UNED) y Máster en Ética y Democracia por la Universidad Jaume I de Castellón de la Plana (España). Ejerció la docencia en el ámbito privado durante nueve años, dirigida a miembros de las Fuerzas y Cuerpos de Seguridad. Actualmente es Doctoranda en Filosofía Moral y tutora en los grados de Psicología, Criminología, Antropología y Sociología en el centro asociado de la UNED de Vila-Real. Sus ámbitos de investigación son la roboética, la ética aplicada a las STEM y la inteligencia artificial. Las comunicaciones con la autora pueden dirigirse a: E-mail: barbara.urban@uji.es

Referencias

Arendt, H. (2013), Sobre la revolución, Madrid, Alianza.

Calvo, P. (2019), “Etificación, la transformación digital de lo moral”, en Kriterion: Revista de Filosofía, Vol. 60 N° 144, diciembre, pp. 671-688.

Castillo Cisneros, M. (2009), “Libertad y justicia en Hannah Arendt: una aproximación”, en Desafíos, Vol. 20, enero-junio, pp. 11-29.

Europa Press (2018), “Los ‘bots’ de Twitter influyeron en los resultados del Brexit y las elecciones presidenciales de EE.UU., según un estudio”, en Europa Press, Madrid, Portaltic, 22 de mayo, https://www.europapress.es/portaltic/socialmedia/noticia-bots-twitter-influyeron-resultados-brexit-elecciones-presidenciales-eeuu-estudio-20180522150442.html, 22-05-2018.

Fernández Teruelo, J. (2016), “¿Por qué falla el Viogen?”, en El Comercio, Asturias, 23 de noviembre, https://www.elcomercio.es/asturias/201611/23/falla-viogen-20161123083859.html, 23-11-2016.

García-Granero, M. y Ortega Esquembre, C. (2019), “Critical Theory or Immunity of the System? About Habermas’s System-Lifeworld Dichotomy”, en Tópicos: Revista de Filosofía, N° 56, pp. 311-337.

García Marzá, D. (1992), Ética de la justicia: J. Habermas y la ética discursiva, Madrid, Tecnos.

__________ (2013), “Democracia de doble vía: el no-lugar de la empresa en la sociedad civil”, en Revista del CLAD Reforma y Democracia, N° 57, octubre, pp. 67-92.

__________ (2015), “El valor democrático de la sociedad civil: una respuesta a la desafección”, en Thémata: Revista de Filosofía, N° 52, pp. 93-109.

Habermas, J. (1984), Ciencia y técnica como “ideología”, Madrid, Tecnos.

__________ (2009), El futuro de la naturaleza humana. ¿Hacia una eugenesia liberal?, Barcelona, Paidós.

__________ (2010), Teoría de la acción comunicativa. Tomo II: Crítica de la razón funcionalista, Madrid, Trotta.

Kohn, C. (2000), “Solidaridad y poder comunicativo: la praxis de la libertad en la filosofía política de Hannah Arendt”, en Res Publica: Revista de Historia de las Ideas Políticas, N° 5, pp. 73-92.

López de Mántaras Badía, R. y Meseguer González, P. (2017), Inteligencia artificial, Madrid, Consejo Superior de Investigaciones Científicas.

O’Neil, Cathy (2017), Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia, Madrid, Capitan Swing.

Parlamento Europeo (2016), Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga, Bruselas, Diario Oficial de la Unión Europea.

Ruiz Marull, D. (2018), “Así actúan los bots (rusos) en Twitter”, en La Vanguardia, Barcelona, 15 de febrero, https://www.lavanguardia.com/vida/20180215/44796909092/bots-rusos-twitter.html, 15-02-2018.

Dimensions

PlumX

Descargas

Los datos de descarga aún no están disponibles.

Visitas

45

Cómo citar

Urban, B. (2020). Algoritmización del mundo de la vida: crítica y propuestas para la desdiferenciación. Revista Del CLAD Reforma Y Democracia, 78. https://doi.org/10.69733/clad.ryd.n78.a214

Recibido: 8 de enero de 2020; Aceptado: 1 de noviembre de 2020

Resumen

Jürgen Habermas habla de tecnocracia para referirse a la disociación del conjunto formado por la autocomprensión de la sociedad del sistema de referencia, la acción comunicativa y la interacción simbólica. Como resultado, se encuentra un uso politizado de elementos tecnológicos como los algoritmos, que han servido incluso para influir en procesos democráticos electorales. La solución a este hecho pasa por una puesta en práctica de la acción comunicativa, que dé pie al compromiso, adoptando así un modelo democrático deliberativo en el que participen las empresas como productoras de ciencia y tecnología.

Palabras clave

Democracia, Relaciones Estado y Sociedad, Tecnocracia, Ciencia y Tecnología, Calidad de la Vida.
Resumen, traducido

Jürgen Habermas speaks about technocracy referring to the dissociation of the whole formed by the society’s self-understanding from the system of reference, the communicative action and the symbolic interaction. As a result, we find a politicized usage of technological elements, such as algorithms, which have even served to influence democratic electoral processes. The solution to this fact must involve a practical use of communicative action, to boost commitment, thus adopting a deliberative democratic model in which companies participate as producers of science and technology.

Keywords

Democracy, State-Society Relationship, Technocracy, Science and Technology, Quality of Life.

Introducción

Basta con encender el teléfono móvil por las mañanas para darnos cuenta de que todo acto de comunicación está mediado por la red, y, por tanto, también lo está por algoritmos. Estos complejos paquetes de instrucciones matemáticas se han convertido en directores del mundo de la vida, acrecentando la brecha entre este y los sistemas orientados a fines.

A lo largo de este trabajo se intentará, mediante una extensión conceptual de la colonización del mundo de la vida habermasiana, dar un paso más hacia una explicación teórica sobre cómo los algoritmos se relacionan con la praxis política y en qué medida esto ha de ser evitado, al menos de la forma en que se está llevando a cabo ahora. En concreto, se intentará contextualizar este concepto extendido en el ámbito de la democracia y las relaciones de la sociedad civil con los Estados.

Para ello, se parte de una serie de acotaciones teóricas: los conceptos de mundo de la vida y la idea de tecnocracia según Habermas han de quedar meridianamente claros para poder construir a partir de ellos todo el trabajo posterior. En segundo lugar, unos breves ejemplos servirán para ilustrar mejor la siguiente explicación sobre la algoritmización del mundo de la vida.

Se van a tomar como base cuestiones tan aparentemente dispares como el potencial racional del habla, la evolución de la tecnología, la praxis política, la democracia algorítmica y la emergencia de nuevos sistemas democráticos algorítmicamente mediados. Además, se intentará interrelacionar de manera coherente estos y otros conceptos para poder enunciar una breve reflexión sobre cómo los algoritmos afectan a los procesos democráticos desde situaciones tan cotidianas que parecen irrelevantes, y aportar una propuesta para la religación entre el mundo de la vida y los sistemas orientados a fines a un nivel cotidiano.

1. El mundo de la vida: colonización, tecnificación y tecnocracia

Habermas define el mundo de la vida como un acervo de patrones de interpretación transmitidos culturalmente y organizados lingüísticamente (Habermas, 2010: 602). En una lúcida reflexión sobre este concepto, García-Granero y Ortega Esquembre (2019), hablan de los imperativos sistémicos propios de los subsistemas económico y administrativo como elementos colonizadores del mundo de la vida. Además, en las sociedades capitalistas avanzadas acontece una progresiva sustitución del medio comunicación por los medios dinero y poder como instancias de coordinación de acciones. ¿Acaso los medios dinero y poder no son plenamente sustituibles hoy por el medio tecnología? Quien domina el campo tecnológico, tiene el poder y, por tanto, o no necesita el dinero, o posee cuanto quiere. Y quien tiene dinero, tiene lo necesario para dominar la tecnología que lleva a alcanzar el poder. Así ha quedado demostrado en casos como la interferencia de bots en la política rusa, que propagaron datos falsos en Twitter, sobre todo durante el periodo especialmente convulso de la anexión de Crimea (Ruiz Marull, 2018). Estas intervenciones buscaban y conseguían modelar la percepción del público acerca de ciertos hechos de trascendencia política. Y esto es solo un ejemplo.

Afirma el profesor García Marzá (1992) que cuando Habermas habla de ideología, lo hace en dos sentidos. Por una parte, como forma de ver y analizar en mundo, en el sentido más común del término. Pero, por otra parte, la ideología puede implicar una intención de alterar la verdad. Tomando esta última acepción, cuando Habermas habla de la técnica como ideología (Habermas, 1984), matiza el fenómeno de la colonización del mundo de la vida hacia un plano conceptual más concreto. En las sociedades capitalistas avanzadas el progreso económico se muestra como algo inevitablemente dependiente de la ciencia y la tecnología, que al mismo tiempo son indesligables del progreso social. Esa es la explicación oficial, aunque la realidad es que la ciencia y la tecnología están lejos de ser neutras, sirven a un sistema político, y son mediadas por la ideología. La tecnocracia, o la técnica como ideología es una intención de alterar la verdad, en el sentido antes mencionado: “entonces el recurso propagandístico al papel de la ciencia y de la técnica puede explicar y legitimar por qué en las sociedades modernas ha perdido sus funciones una formación democrática de la voluntad política en relación con las cuestiones prácticas y puede ser sustituida por decisiones plebiscitarias relativas a los equipos alternativos de administradores. A nivel científico, esta tesis de la tecnocracia ha recibido distintas versiones. Pero a mi entender, es mucho más importante el que esa tesis haya podido penetrar como ideología de fondo en la conciencia de la masa despolitizada de la población y desarrollar su fuerza legitimatoria” (Habermas, 1984: 88-89).

Si bien es cierto que el papel de la ciencia y la tecnología queda supeditado a los intereses de un sistema que lo legitima alegando la satisfacción de necesidades funcionales, cabe hacerse dos preguntas al respecto. En primer lugar, ¿dónde quedan las necesidades morales? Esto puede ser una consecuencia de la diferenciación de la que el autor habla en otra obra, cuando afirma, en relación con la instrumentalización de segundas personas, que es necesaria una desdiferenciación -biotécnica en este caso- de los procederes (Habermas, 2009: 63-64). Con desdiferenciar, Habermas habla de religar el mundo de la vida y la técnica, para que esta, junto a la ciencia, vuelvan a manos de los interesados. Dejando de servir a los intereses políticos, la tecnología, la ciencia y la razón serían ámbitos reorientados a la búsqueda del ideal de vida buena.

La segunda pregunta que surge tras la reflexión sobre la tecnocracia es si la satisfacción de las necesidades funcionales es lo único exigible a las instituciones. En este aspecto, las instituciones se entienden como el conjunto de aparatos burocráticos que los Estados utilizan para relacionarse con la sociedad civil. Pero teniendo en cuenta que la tecnocracia es ideología, queda en entredicho la legitimidad de las instituciones para cubrir las necesidades de la sociedad civil, en lugar de las propias.

La puesta en relación de todo lo descrito hasta ahora seguiría el esquema que se describe seguidamente:

1) La ciencia, la tecnología y la razón, por una parte, y el espíritu, el mundo de la vida y la moral por otra han sido diferenciadas de manera que la primera se ha utilizado de manera sistemática con intereses de dominación política.

2) Esta dominación política ha tenido como consecuencia un cambio progresivo hacia una tecnificación del mundo de la vida. Habermas aboga por el proceso inverso de desdiferenciación: reintegrar el mundo de la vida y la tecnología, la razón y la ética. De lo contrario, las competencias de la filosofía quedan en manos de los tecnócratas y, como se ha visto, la tecnología ha resultado ser un método político de dominación[1].

3) Avanzando hacia el contexto actual, se podría afirmar que el estado del asunto está en un punto de algoritmización del mundo de la vida por las razones que se van a ver a continuación.

2. Evolución de la tecnología y su relación con el cuerpo y la democracia

Habermas sugiere una reconstrucción de la historia de la técnica desde la perspectiva de una objetivación de la acción racional con respecto a fines, y lo hace sirviéndose de un modelo que se ajusta a cuatro etapas históricas de la evolución tecnológica[2]. Basándose en el propio organismo humano, el patrón evolutivo sería el siguiente (Habermas, 1984: 62):

1) Refuerzo y sustitución del aparato locomotor (brazos y piernas).

2) Producción de energía (por parte del cuerpo humano).

3) Funciones del aparato de los sentidos (ojos, oídos y piel).

4) Funciones del centro de control (del cerebro).

La evolución de la técnica basada en el cuerpo humano ha ido creciendo no en potencia, sino en complejidad. Esto, trasladado a un contexto de control social, puede dar como resultado un proceso de refinamiento de los mecanismos de vigilancia y castigo, desde el uso del trabajo humano para transformarlo en movimiento y fuerza remando en una galera, pasando por el uso de videocámaras bajo el pretexto de la seguridad colectiva hasta los ya nombrados bots dirigidos por algoritmos para manipular la opinión del electorado.

Tomando como punto de partida para el resto del trabajo la cuarta etapa, se pueden adoptar como ejemplo ciertas técnicas basadas en la arquitectura cerebral, que se ponen en funcionamiento con intereses distintos al beneficio común, y cuya finalidad es la dominación política de la sociedad civil. Por otra parte, y con base en esa arquitectura cerebral, existe en Inteligencia Artificial el llamado modelo conexionista, que se basa en la hipótesis de que la inteligencia emerge a partir de la actividad distribuida de un gran número de unidades interconectadas, que procesan información paralelamente, siendo estas unidades modelos aproximados de la actividad eléctrica de las neuronas biológicas (López de Mántaras Badía y Meseguer González, 2017: 12). Si ese modelo conexionista da como resultado una serie de elementos algorítmicos utilizados con objetivos de vigilancia y control de la sociedad civil, se puede estar ante un ejemplo actual de racionalización de la ciencia y la tecnología con fines políticos.

En “Progreso técnico y mundo social de la vida”, Habermas (1984: 113-129), hace dos definiciones muy apropiadas, precedidas por la siguiente afirmación: “La relación entre progreso técnico y mundo social de la vida y la traducción de las informaciones científicas a la conciencia práctica no puede ser asunto de formación privada” (Habermas, 1984: 123).

El mismo autor define la técnica, en el contexto de la voluntad política, como la capacidad de disposición científicamente racionalizada sobre procesos objetivados, refiriéndose al sistema en que investigación y técnica están conectadas con la economía y la administración y retroalimentadas por ellas. Y habla de democracia como las formas institucionalmente aseguradas de una comunicación general y pública que se ocupa de las cuestiones prácticas: de cómo los hombres quieren y pueden convivir bajo las condiciones objetivas de una capacidad de disposición inmensamente ampliada (Habermas, 1984: 123). En ningún momento se menciona, respecto a la técnica, que ni la conexión con la administración y la economía, ni la retroalimentación que se les presupone, hayan de estar al servicio de la dominación política. Es decir que si esa dominación política a la que ha terminado por servir la ciencia y la técnica, que las ha convertido en ideología al servicio de la dominación, no de la naturaleza sino de la sociedad civil y en concreto de la ciudadanía, ha sido consecuencia de un proceso histórico y no de una evolución natural de las cosas de la ciencia, es posible revertirlo. Y, por otra parte, si la democracia, tal y como afirma el autor, se preocupa de las cuestiones prácticas, es lógico atribuir a los procesos democráticos propios de los sistemas participativos los asuntos relativos a la ciencia y la tecnología.

Resumiendo, de las cuatro etapas evolutivas que Habermas propone al hablar de medios técnicos, la última de ellas corresponde a la imitación de las funciones cerebrales. Como ya se ha visto, esto sucede con la Inteligencia Artificial, cuya definición ha llevado a poner sobre la mesa un tipo de IA, el modelo conexionista. Esta propuesta ha desarrollado modelos algorítmicos que han sido capaces de generar bots, perfiles automáticos en redes sociales capaces de interactuar con humanos, aportando información falsa e interferir en la intención de voto de miles de usuarios de Twitter (Europa Press, 2018). Esta reflexión, junto a las definiciones de técnica y democracia que Habermas hace en el contexto de la voluntad política, pone de relieve la necesidad de establecer un replanteamiento de las relaciones entre ciencia y tecnología, por un lado, y sociedad civil y política por otro.

3. Praxis política, participación y tecnología

Hannah Arendt entendía por auténtica libertad la libertad política como única forma posible (Castillo Cisneros, 2009: 18). Aunque es necesario puntualizar que la libertad real como autonomía solo se ejerce desde la ausencia de coacción, por tanto, es necesaria una base social carente de poderes opresivos.

Otra idea central en el pensamiento de la filósofa es el de compromiso (Kohn, 2000: 78), entendido como la intención de llevar a cabo los acuerdos que se han conseguido durante el ejercicio de la participación política. A ese compromiso se llega mediante la negociación, que se sirve del lenguaje (Kohn, 2000: 76) como acción comunicativa. En palabras de la propia Arendt (2013: 26 y ss.): “En efecto, el pensamiento político solo puede observar las expresiones articuladas de los fenómenos políticos y está limitado a lo que aparece en el dominio de los asuntos humanos, que, a diferencia de lo que ocurre en el mundo físico, para manifestarse plenamente, necesitan de la palabra y de la articulación”.

La praxis política es una competencia de la sociedad civil, que se consigue a través un diálogo intersubjetivo. Este diálogo mediado por la autocomprensión de los individuos como sujetos autónomos desarrollados en un contexto de democracia participativa da lugar a esos compromisos a los que Arendt se ha referido. Respecto al acto de habla, García Marzá (1992: 42), afirma que las acciones comunicativas representan un tipo de interacciones en las que los sujetos se orientan hacia el acuerdo mutuo, refinando así lo expuesto previamente sobre Arendt. Cuando una persona lleva a cabo un acto de habla busca el reconocimiento por parte de su interlocutor de la validez de su discurso, adquiriendo así un compromiso del que en su momento deberá responder (García Marzá, 1992: 43).

Despojar a la ciencia y la técnica de su potencial racionalizador y atribuirle las capacidades liberadoras que podría tener si se consigue llegar a esa desdiferenciación de la que Habermas (2009) habla en El futuro de la naturaleza humana, es posible y necesario para la emancipación de la ciudadanía. Esto llevaría a una deseable praxis política en el sentido que defendía Arendt, en manos de la sociedad civil, lo que solo se puede conseguir mediante la acción comunicativa y sus implicaciones de compromiso. Pero esta práctica necesita un contexto democrático del que ya se ha dado un brevísimo esbozo anteriormente.

García Marzá (2015) define las democracias deliberativas como “una serie de teorías que entienden que la deliberación pública de ciudadanos libres e iguales es la clave de la legitimidad del proceso político, que reconocen la existencia de un núcleo moral en la base de toda posible legitimación y que entienden la democracia, como diría Carlos Nino, como un poder para transformar los intereses de la gente de un modo moralmente aceptable. Y este poder no se logra sin la participación libre e igual de todos los afectados”.

La deliberación pública a través de la acción comunicativa; la libertad como ausencia de regímenes opresores y como capacidad plena para el desarrollo de la autonomía; y la igualdad de derechos son, según esta definición, los tres pilares que sostienen una democracia transformadora basada en la participación. ¿Qué relación existe entre esto y la ciencia y la tecnología como ideologías? En una democracia deliberativa, la ciencia y la tecnología podrían formar parte de ese espacio deliberativo y quedar fuera del ámbito de herramientas de dominación política.

Pero se da la circunstancia de que la ciencia hay que hacerla, y eso es algo que está en manos, fundamentalmente, de empresas privadas. ¿Por qué habría que suponer que las empresas tecnológicas estarían dispuestas a participar en ese espacio deliberativo? Según la propuesta de García Marzá (2013), la empresa no puede quedar al margen de la perspectiva crítica y de ahí que debamos buscar su lugar dentro de un concepto ampliado de sociedad civil. La conclusión a la que se puede llegar es que las empresas deben estar incluidas en el grupo de la sociedad civil porque, en un contexto deliberativo, comparten intereses con el resto de la ciudadanía. Por tanto, si quienes producen ciencia y tecnología son empresas, y estas se imbrican en el tejido social no político, se habrá dado un gran paso hacia la desdiferenciación que tanto defiende Habermas, despojando en gran medida -que no de manera absoluta- la tecnología de la ideología de dominación política.

4. De la algoritmización de la democracia a la democratización de los algoritmos

Hasta ahora se han analizado los problemas que acompañan a la tecnocracia y su incompatibilidad con el modelo de democracia deliberativa, tal y como lo plantea García Marzá[3].

Siguiendo con el concepto habermasiano de mundo de la vida, Calvo (2019) hace un esquematizado resumen de los elementos que lo componen desde la actividad humana:

· La cultura, como mundo objetivo.

· La personalidad, como mundo subjetivo.

· La sociedad, como mundo social.

Desde una perspectiva antropológica, la tecnología, en cualquiera de sus estadios evolutivos, pertenece claramente al mundo de la vida por tratarse de un segmento cultural socialmente mediado e implementado. Cualquier forma de tecnología, desde las primeras bifaces hasta los algoritmos más complejos, ha requerido colaboración de los miembros de un grupo, un mundo social en términos habermasianos. Y la tecnología es solo uno de los innumerables y complejos segmentos culturales humanos. De hecho, la definición de mundo de la vida de Habermas es muy próxima a una de tantas definiciones de cultura que manejan los etnógrafos.

Por otra parte, y siguiendo con la misma línea de Calvo (2019: 6-7) en “Etificación, la transformación digital de lo moral”, otra perspectiva sistémica estaría dividida en tres subsistemas: economía, estado y familia, proyectados y desarrollados a través de procesos de racionalización con arreglo a fines. En este momento la ciencia y la tecnología están secuestradas. Y se ha utilizado deliberadamente esta palabra, porque a la ciencia y la tecnología no les corresponde el lugar que ocupan, sino que fueron en un momento dado arrancadas del mundo de la vida.

Las consecuencias han sido múltiples, pero en el ámbito de la democracia algorítmica[4] parece que todo lo que se podía hacer mal, se ha hecho mal. Ya se han puesto ejemplos breves de cómo los algoritmos han sido empleados para manipular las opiniones políticas de algunos ciudadanos con derecho a voto, pero Cathy O’Neil (2017) puede poner otros cientos de ejemplos de cómo una simple instrucción matemática, sin tener siquiera entidad física, y mucho menos moral, ha sido capaz, no solo de provocar, sino de legitimar situaciones de desigualdad inimaginables en pleno siglo XXI.

Valdría la pena preguntarse qué ha provocado este desastre tecnológico. Cómo un avance con un potencial de aplicación tan amplio ha sido utilizado de preferencia con intereses económicos y de dominación. La respuesta se puede analizar desde dos perspectivas. Una primera habermasiana, recordando el subsistema economía y el subsistema Estado, orientados a fines utilitaristas que obvian la ética. Una segunda perspectiva, más técnica, es que ha habido un error de base al intentar introducir un elemento algorítmico de toma de decisiones concretas en un sistema abierto y dinámico como es un Estado democrático.

5. Crítica al modelo actual y propuestas de mejora

Ninguna sociedad es un sistema cerrado autopoyético. Por tanto, es imposible que pueda ser gobernada, ni siquiera de manera parcial, por elementos basados en ceros y unos. Es un intento simplista de traducir a criterios cuantitativos cuestiones relativas a la moral, la política o la cultura. El modelo de deep learning ha conseguido que los propios algoritmos, grosso modo, aprendan de lo que ven a su alrededor. Pero por mucho que aprendan, el campo de aplicación seguirá sin ser un circuito cerrado. No están preparados para enfrentarse a un mundo de la vida abierto y osmótico, por tanto, su aplicación en cualquier ámbito que trascienda lo industrial, en lo que a toma de decisiones se refiere, es totalmente improcedente. Más aún en el ámbito de los procesos democráticos por la trascendencia que estos tienen para el objetivo deseable, que es una religación del mundo de la vida y el sistema orientado a fines.

La propuesta pasa por integrar la ética en la técnica. No es suficiente para la religación de la que se ha venido hablando hasta ahora, pero es un primer paso realista y, lo más importante, es un paso radical. Urge introducir no solo formación, sino conciencia ética en las carreras técnicas. Hasta ahora la ética profesional ha sido una asignatura habitual en las ciencias de la salud y sociales como el periodismo o la medicina, porque se les presupone un acercamiento a lo humano que requiere cierta sensibilidad y profesionalidad. La misma sensibilidad y profesionalidad no es requerida a ingenieros o informáticos, por muy cerca de lo humano que se encuentre su trabajo. La percepción sigue siendo que los profesionales de ciencias trabajan con elementos inertes, o incluso abstractos, y sí, así es. Pero siguen sin tenerse en cuenta las consecuencias que esos elementos tienen sobre la humanidad. Del mismo modo que un bisturí no actúa solo, sino que un ser humano, como ser moral, y por tanto responsable, se hace cargo de su uso, un algoritmo tampoco actúa solo. Detrás hay un programador o programadora que lo ha puesto en marcha y que también debería hacerse cargo de su uso, para lo cual ha debido recibir previamente la misma formación en ética profesional que cualquier otro estudiante de ciencias humanas, sociales o de la salud.

De manera muy indirecta, esto ya está sucediendo en el ámbito de la protección de datos. El Reglamento Europeo 2016/679 de Protección de Datos contempla en su artículo 22 que: “1.- Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar” (Parlamento Europeo, 2016).

Se evita de este modo que un individuo sea objeto de la toma de decisiones trascendentales para su vida personal por parte de un algoritmo. Pero esto no es ética, es legislación de cumplimiento obligado, y su incumplimiento implica castigo, por tanto, existe coacción. Si bien es una solución-parche, queda lejos de ser una fórmula para la religación entre el mundo de la vida y el sistema orientado a fines, porque no implica acción comunicativa alguna entre sujetos morales.

Valga el siguiente ejemplo para ilustrar la catástrofe que supone dejar en manos de algoritmos la toma de decisiones que deberían quedar reservadas a los humanos. VioGen es un sistema informático del Cuerpo Nacional de Policía, cuya finalidad es atribuir a una mujer que interpone una denuncia por violencia de género un nivel de peligro para establecer sobre ella medidas de protección. Un funcionario introduce en el programa una serie de datos que el propio software va solicitando, por ejemplo, si ha sido víctima de agresiones físicas, si la mujer y su agresor conviven, o si tienen hijos. Finalmente, y tras una serie infinita de preguntas que claramente deshumanizan un procedimiento ya de por sí sensible, el programa devuelve un dato entre cinco posibilidades: nivel de riesgo ‘no apreciado’, ‘bajo’, ‘medio’, ‘alto’ o ‘extremo’. Esto, que parece ciencia ficción, no funciona, tal y como demuestran las estadísticas en materia de violencia de género. Fernández Teruelo (2016) propone además tres causas por las cuales VioGen tampoco va a funcionar nunca, al menos tal y como existe ahora. Esas tres causas son resumibles en una sola, y es la ausencia de criterios éticos y de capacidad de juicio de un programa informático construido con base en instrucciones matemáticas.

Conclusión

Continúa vigente hoy en día la separación que Habermas propuso entre el mundo de la vida y los sistemas orientados a fines. Dicho de otra forma, la ética, la moral, el espíritu, las preguntas trascendentales, lo humano, la cultura o lo social son cuestiones ajenas a lo que realmente mueve el mundo según los tecnócratas. Lo que estos mesías de la vida buena posthumana no han valorado es la certeza de que la ciencia y la tecnología sigue en manos de sujetos morales. Estos sujetos morales, sean personas o sean empresas, tienen la capacidad de, mediante decisiones éticas, volver a religar esos dos ámbitos separados del mundo de la vida y de los sistemas orientados a fines.

Esto se podría alcanzar mediante acciones comunicativas en contextos democráticos deliberativos. Aquí la participación de la sociedad civil, entendida en el sentido que le da García Marzá como un conjunto que integra tanto a la ciudadanía como a las organizaciones y las empresas, puede recuperar el control de ciencia y la tecnología que, por definición antropológica, nunca han salido del ámbito de lo cultural, sino que han sido secuestradas y utilizadas como herramienta de control.

Una propuesta radical, a modo de primera piedra para la religación entre el mundo de la vida y los sistemas orientados a fines es la implementación de formación y concienciación en deontología, para aquellos estudios técnicos cuya relación con la sensibilidad humana ha sido obviada hasta ahora. Tal es el ejemplo de la informática y los diseñadores de algoritmos, cuyos efectos tienden a no ser valorados previamente a su implementación.

Integrar la ética en cada profesional de la ciencia y la tecnología puede ser un buen comienzo, aunque pequeño, que conduciría a la recuperación por parte de la sociedad civil de la ciencia y la tecnología como herramientas emancipadoras, justo al contrario de lo que suponen ahora: formas de control y objeto de negociaciones que subvierten los intereses generales.

Bibliografía

  1. Arendt, H. (2013), Sobre la revolución, Madrid, Alianza. 🠔
  2. Calvo, P. (2019), “Etificación, la transformación digital de lo moral”, en Kriterion: Revista de Filosofía, Vol. 60 N° 144, diciembre, pp. 671-688. 🠔
  3. Castillo Cisneros, M. (2009), “Libertad y justicia en Hannah Arendt: una aproximación”, en Desafíos, Vol. 20, enero-junio, pp. 11-29. 🠔
  4. Europa Press (2018), “Los ‘bots’ de Twitter influyeron en los resultados del Brexit y las elecciones presidenciales de EE.UU., según un estudio”, en Europa Press, Madrid, Portaltic, 22 de mayo, https://www.europapress.es/portaltic/socialmedia/noticia-bots-twitter-influyeron-resultados-brexit-elecciones-presidenciales-eeuu-estudio-20180522150442.html, 22-05-2018. 🠔
  5. Fernández Teruelo, J. (2016), “¿Por qué falla el Viogen?”, en El Comercio, Asturias, 23 de noviembre, https://www.elcomercio.es/asturias/201611/23/falla-viogen-20161123083859.html, 23-11-2016. 🠔
  6. García-Granero, M. y Ortega Esquembre, C. (2019), “Critical Theory or Immunity of the System? About Habermas’s System-Lifeworld Dichotomy”, en Tópicos: Revista de Filosofía, N° 56, pp. 311-337. 🠔
  7. García Marzá, D. (1992), Ética de la justicia: J. Habermas y la ética discursiva, Madrid, Tecnos. 🠔
  8. __________ (2013), “Democracia de doble vía: el no-lugar de la empresa en la sociedad civil”, en Revista del CLAD Reforma y Democracia, N° 57, octubre, pp. 67-92. 🠔
  9. __________ (2015), “El valor democrático de la sociedad civil: una respuesta a la desafección”, en Thémata: Revista de Filosofía, N° 52, pp. 93-109. 🠔
  10. Habermas, J. (1984), Ciencia y técnica como “ideología”, Madrid, Tecnos. 🠔
  11. __________ (2009), El futuro de la naturaleza humana. ¿Hacia una eugenesia liberal?, Barcelona, Paidós. 🠔
  12. __________ (2010), Teoría de la acción comunicativa. Tomo II: Crítica de la razón funcionalista, Madrid, Trotta. 🠔
  13. Kohn, C. (2000), “Solidaridad y poder comunicativo: la praxis de la libertad en la filosofía política de Hannah Arendt”, en Res Publica: Revista de Historia de las Ideas Políticas, N° 5, pp. 73-92. 🠔
  14. López de Mántaras Badía, R. y Meseguer González, P. (2017), Inteligencia artificial, Madrid, Consejo Superior de Investigaciones Científicas. 🠔
  15. O’Neil, Cathy (2017), Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia, Madrid, Capitan Swing. 🠔
  16. Parlamento Europeo (2016), Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga, Bruselas, Diario Oficial de la Unión Europea. 🠔
  17. Ruiz Marull, D. (2018), “Así actúan los bots (rusos) en Twitter”, en La Vanguardia, Barcelona, 15 de febrero, https://www.lavanguardia.com/vida/20180215/44796909092/bots-rusos-twitter.html, 15-02-2018. 🠔

Notas

En El futuro de la naturaleza humana (Habermas, 2009: 66), se habla de la desdiferenciación en el contexto de la reproducción humana. Este es solo uno de los campos a los que se puede aplicar el concepto de tecnificación del mundo de la vida, aunque se considera de especial relevancia por las consecuencias que puede tener para nuestra especie.
Ni Habermas enuncia todas las etapas que son, ni son todas las etapas que se enumeran. No obstante, ha resultado ser una concisa reflexión que sirve como punto de partida para pasar a la cuestión de la algoritmización del mundo de la vida y su relación con los procesos democráticos.
Para ampliar el concepto de democracia de doble vía, ver García Marzá (2015).
La democracia algoritmizada es un concepto cuyo trabajo en profundidad queda a modo de puerta abierta para una ocasión más apropiada.

Artículos similares

También puede Iniciar una búsqueda de similitud avanzada para este artículo.