Democracia algorítmica: consideraciones éticas sobre la dataficación de la esfera pública

Algorithmic Democracy: Ethical Considerations on the Datafication of the Public Scope

DOI: https://doi.org/10.69733/clad.ryd.n74.a181
Published
2019-01-01

Patrici Calvo

Abstract (en)

Currently the convergence of Artificial Intelligence, Big Data and the Internet of Things allows the algorithmization, datafication and hyperconnectivity of the entire scope of human activity, such as economics, welfare or politics. Together with the disaffection of civil society towards the current democratic models, this fact is generating new democratic proposals based on the supposed objectivity, morality, representability and neutrality of mathematical models based on artificial neural networks of machine learning. Using a hermeneutic-critical methodology in the study of bibliographical sources, the objective of the present work is to show the challenges, limits and consequences that underlie the diverse democratic proposals based on mathematical models of decision, massive data and the hyperconnectivity of the digital society.

Keywords (EN): Democracy, Ethics, Internet, Artificial Intelligence, Expert Systems, Computer Science, Networks, Public Sector

Abstract (es)

Actualmente la convergencia de la Inteligencia Artificial, el Big Data y el Internet de las cosas permite la algoritmización, dataficación e hiperconectividad de todo ámbito de actividad humana, como el económico, el asistencial o el político. Este hecho, junto con la desafección de la sociedad civil hacia los actuales modelos democráticos, está generando nuevas propuestas democráticas basadas en la supuesta objetividad, moralidad, representatividad y neutralidad de los modelos matemáticos basados en redes neuronales artificiales de aprendizaje automático. Utilizando una metodología hermenéutico-crítica en el estudio de fuentes bibliográficas, el objetivo del presente trabajo es mostrar los retos, límites y consecuencias que subyacen a las diversas propuestas democráticas basadas en modelos matemáticos de decisión, datos masivos y la hiperconectividad de la sociedad digital.

Keywords (ES): Democracia, Ética, Internet, Inteligencia Artificial, Sistemas Expertos, Informática, Redes, Sector Público

Patrici Calvo, Universitat Jaume I de Castellón

Profesor de ética en la Universitat Jaume I de Castellón, coordinador del Máster Interuniversitario en Ética y Democracia, coordinador de la Mesa de Responsabilidad Social de Castellón, y miembro del Comité de Bioética Asistencial del Hospital General de Castellón, en España. Sus trabajos se centran en tres líneas de investigación. Por un lado, el desarrollo teórico de una propuesta de economía cordial que, basada en la ética de la razón cordial de Adela Cortina y la economía civil de Stefano Zamagni, busca introducir la reciprocidad en el ámbito teórico y práctico a través del diseño de instituciones, organizaciones y empresas cordiales. Por otro lado, el desarrollo de sistemas de monitorización y cumplimiento de la ética y la responsabilidad social basados en el whistleblowing, el Big Data y la participación comprometida de la sociedad civil. Y finalmente, el diseño de un marco normativo o Ética de las Cosas (EoT) que permita orientar la transformación digital en un sentido más justo, responsable y sostenible. Además, es autor del libro The Cordial Economy. Ethics, Recognition and Reciprocity (Springer, 2018), así como de múltiples artículos en revistas científicas indexadas en Scopus y Web of Science. Entre sus últimas publicaciones sobre ética e Inteligencia Artificial, destaca “Etificación, la transformación digital de lo moral” (Kriterion: Revista de Filosofía, 2019); “Bioética de las Cosas: sobre la algoritmización de la deliberación moral en la práctica clínica” (Filosofía Unisinos, 2019); “Moral Neurolearning by Machines: Artificial Values, Intelligences and Neural Networks” (Springer, 2019); “Gobierno algorítmico: sobre el neuroaprendizaje moral de las máquinas en la política y la economía” (Comares, 2019); “Ética de las cosas (EoT). Hacia una digitalización socialmente responsable y moralmente válida del ámbito universitario” (Universitat Jaume I, 2018); “Whistleblowing y datos masivos: monitorización y cumplimiento de la ética y la responsabilidad social” (EPI, 2018). Las comunicaciones con el autor pueden dirigirse a: Facultad de Ciencias Humanas y Sociales Universitat Jaume I de Castellón Av. Vicent Sos Baynat s/n 12071 Castellón de la Plana, España E-mail: calvop@uji.es Página web: https://patricicalvo.academia.edu

References

Akrivopoulou, Christina M. y Garipidis, Nicolaos (eds.) (2013), Digital Democracy and the Impact of Technology on Governance and Politics: New Globalized Practices, Hershey, IGI Global; Information Science Reference.

Baldi, Vania (2017), “Más allá de la sociedad algorítmica y automatizada. Para una reapropiación crítica de la cultura digital”, en Observatorio, Vol. 11 N° 3, pp. 186-198.

Bautista, Oscar D. (2013), Ética para la ciudadanía, Toluca, Instituto Electoral del Estado de México.

Bostrom, Nick (2014), Superintelligence: Paths, Dangers, Strategies, Oxford, Oxford University Press.

Calvo, Patrici (2019a), “Etificación, la transformación digital de lo moral”, en Kriterion: Revista de Filosofía, por publicar.

__________ (2019b), “Gobierno algorítmico: el neuroaprendizaje moral de las máquinas en la política y la economía”, en Neuroeducación moral y democracia, Jesús Conill y Domingo García Marzá (eds.), Granada, Comares.

Cambell-Dollaghan, Kelsey (2016), “The Algorithmic Democracy: AI Is Changing How We Think, Debate, and Choose”, s.l., Fast Company, https://www.fastcodesign.com/3065582/the-algorithmic-democracy.

Celik, Ferhat (2016), “Internet of Things as a Source of Future Marketing Tools”, paper presented at the 7th Bachelor Thesis Conference, Enschede, The Netherlands, July 1st, http://essay.utwente.nl/70097/1/Celik%20Ferhat%20(2016)%20Internet%20of%20Things%20as%20a%20source%20of%20future%20marketing%20tools.pdf.

Chen, Xue-Wen y Lin, Xiaotong (2014), “Big Data Deep Learning: Challenges and Perspectives”, en IEEE Access, Vol. 2, pp. 514-525, https://ieeexplore.ieee.org/abstract/document/6817512.

Chomsky, Noam (2016), Who Rules the World, New York, Metropolitan.

Collective Learning Group (2019), Augmented Democracy. Exploring the Design Space of Collective Decisions, Cambridge, Massachusetts Institute of Technology, https://www.peopledemocracy.com.

Comisión Europea (2008), Internet of Things in 2020: Roadmap for Future, Brussels, European Technology Platform on Smart Systems Integration, https://docbox.etsi.org/erm/Open/CERP%2020080609-10/Internet-of-Things_in_2020_EC-EPoSS_Workshop_Report_2008_v1-1.pdf.

__________ (2009a), “Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Internet of Things: an Action Plan for Europe”, Brussels, Comisión Europea, https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52009DC0278&from=ES.

__________ (2009b), “Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Preparing for Our Future: Developing a Common Strategy for Key Enabling Technologies in the EU”, Brussels, Comisión Europea, https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52009DC0512&from=FR.

Conde, Aintzane; Arriandiaga, Ander; Sanchez, J. A.; Portillo, Eva; Plaza, S.; y Cabanes, I. (2018), “High-Accuracy Wire Electrical Discharge Machining Using Artificial Neural Networks and Optimization Techniques”, en Robotics and Computer-Integrated Manufacturing, Vol. 49, pp. 24-38.

Conill, Jesús (2012), “Neuroeconomía y neuromarketing. ¿Más allá de la racionalidad maximizadora?”, en Guía Comares de neurofilosofía práctica, Adela Cortina (ed.), Granada, Comares, pp. 39-64.

Conill, Jesús y García Marzá, Domingo (2012), “Neuroeconomía y neuromarketing”, en La comunicación empresarial y la gestión de los intangibles en España y Latinoamérica, J. Villafañe (dir.), Madrid, Pearson, pp. 143-163.

Dawkins, Richard (1982), The Extended Phenotype: the Gene as the Unit of Selection, Oxford, Oxford University Press.

De Schutter, Erik (2018), “Deep Learning and Computational Neuroscience”, en Neuroinformatics, Vol. 16 N° 1, pp. 1-7.

Feenstra, Ramón y Pallarés Domínguez, Daniel (2017), “Debates éticos en torno al neuromarketing político: el avance tecnológico y su potencial incidencia en la formación de la opinión pública”, en Veritas: Revista de Filosofía y Teología, N° 36, pp. 9-28.

García Marzá, Domingo (1992), Ética de la justicia: J. Habermas y la ética discursiva, Madrid, Tecnos.

__________ (2004), Ética empresarial: del diálogo a la confianza, Madrid, Trotta.

Habermas, Jürgen (1984), Ciencia y técnica como “ideología”, Madrid, Tecnos.

__________ (1987), Teoría de la acción comunicativa, II: crítica de la razón funcionalista, Madrid, Taurus.

Higham, Catherine F. y Higham, Desmond J. (2018), Deep Learning: an Introduction for Applied Mathematicians, https://arxiv.org/pdf/1801.05894.pdf.

Hirasawa, Toshiaki; Aoyama, Kazuharu; Tanimoto, Tetsuya; Ishihara, Soichiro; Shichijo, Satoki; Ozawa, Tsuyoshi; Ohnishi, Tatsuya; Fujishiro, Mitsuhiro; Matsuo, Keigo; Fujisaki, Junko; y Tada, Tomohiro (2018), “Application of Artificial Intelligence Using a Convolutional Neural Network for Detecting Gastric Cancer in Endoscopic Images”, en Gastric Cancer, Vol. 21 N° 4, pp. 653-660, https://doi.org/10.1007/s10120-018-0793-2.

Iba, Hitoshi (2017), Evolutionary Approach to Machine Learning and Deep Neural Networks: Neuro-Evolution and Gene Regulatory Networks, Singapore, Springer.

Ikäheimo, Hannu-Pekka (2017), “The Algorithmic Democracy: How Did the Technological Transformation Lead to the Post-Truth Era?”, en The Next Era, Helsinki, https://www.sitra.fi/en/articles/algorithmic-democracy-technological-transformation-lead-post-truth-era, 04-04-2017.

Jain, Sachin H.; Powers, Brian W.; Hawkins, Jared B.; y Brownstein, John S. (2015), “The Digital Phenotype”, en Nature Biotechnology, Vol. 33 N° 5, pp. 462-463.

Johnston, Lachlan (2018), “There’s an AI Running for the Mayoral Role of Tama City, Tokyo”, en Otaquest, Tokyo, April 12, http://www.otaquest.com/tama-city-ai-mayor.

Llavina, Xantal (2015), “Ahora los medios compiten con sus audiencias”, en El Periódico de Catalunya, Barcelona, 19 de noviembre, https://www.elperiodico.com/es/entrevistas-talento-digital/20151119/entrevista-jose-luis-orihuela-4686719.

Luna, Juan Pablo y Pérez Muñoz, Cristian (2018), “Democracia sin políticos? La engañosa fe en los algoritmos”, en CIPER: Centro de Investigación Periodística, Santiago, 9 de mayo.

Marblestone, Adam H.; Wayne, Greg; y Kording, Konrad P. (2016), “Toward an Integration of Deep Learning and Neuroscience”, en Frontiers in Computational Neuroscience, Vol. 10 Art. 94, pp. 1-41.

Masuda, Yoneji (1981), The Information Society as Post-Industrial Society, Washington, World Future Society.

Matsumoto, Tetsuzo (2018), The Day AI Becomes God. The Singularity Will Save Humanity, Cambridge, Media Tectonics.

Mayer-Schöenberger, Viktor; y Cukier, Kenneth (2013), Big Data. A Revolution that Will Transform How We Live, Work, and Think, London, John Murray Publishers.

National Intelligence Council (2008), Disruptive Civil Technologies: Six Technologies with Potential Impacts on US Interests out to 2025, Washington, NIC, https://fas.org/irp/nic/disruptive.pdf, 02-07-2018.

Nguyen, Anh M. (2017), AI Neuroscience: Visualizing and Understanding Deep Neural Networks, Wyoming, University of Wyoming.

O’Neal, Cathy (2016), Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York, Broadway Books.

Prins, Corien; Cuijpers, Colette; Lindseth, Peter L.; y Rosina, Mônica (eds.) (2017), Digital Democracy in a Globalized World, Northampton, Edward Elgar.

Quan-Haase, Anabel y Wellman, Barry (2005), “How Computer-Mediated Hyperconnectivity and Local Virtuality Foster Social Networks of Information and Coordination in a Community of Practice”, paper presented at the XXV International Sunbelt Social Network Conference, Redondo Beach, California, February 16-20.

__________ (2006), “Hyperconnected Net Work: Computer-Mediated Community in a High-Tech Organization”, en The Firm as a Collaborative Community: Reconstructing Trust in the Knowledge Economy, Charles Heckscher y Paul Adler (eds.), New York, Oxford University Press, pp. 281-333.

Raskino, Mark (2011), Strategic Information Management for Competitive Advantage, Stamford, Gartner, https://www.gartner.com/en/documents/1851616.

Ritzer, George (1995), Teoría sociológica contemporánea, Madrid, McGraw-Hill.

Runciman, David (2018), How Democracy Ends, London, Profile Books.

Sáez, Cristina (2018), Augmented Democracy, Barcelona, Centre de Cultura Contemporània de Barcelona, http://lab.cccb.org/en/democracia-augmentada.

Saiz, Eva (2013), “La NSA infringió las normas de privacidad en miles de ocasiones”, en El País, Madrid, 16 de agosto, https://elpais.com/internacional/2013/08/16/actualidad/1376631278_378738.html.

SAM (2018), SAM: Meet Your Politician of the Future, Wellington, s.e., http://www.politiciansam.nz.

Serpanos, Dimitrios y Wolf, Marilyn (2017), Internet-of-Things (IoT) Systems: Architectures, Algorithms, Methodologies, Cham, Springer.

Serrano-Cobos, Jorge (2016), “Tendencia tecnológica en Internet: hacia un cambio de paradigma”, en El profesional de la información, Vol. 25 N° 6, pp. 843-850.

Smith, Adam (1793), An Inquiry into the Nature and Causes of the Wealth of Nations, London, A. Strahan and T. Cadell. Originally published in 1776.

Stats NZ (2018), Algorithm Assessment Report, Wellington, New Zealand Government, https://data.govt.nz/use-data/analyse-data/government-algorithm-transparency.

Sumpter, David (2018), Outnumbered. From Facebook and Google to Fake News and Filter-Bubbles: the Algorithms that Control Our Lives, New York, Bloomsbury.

Tolkien, John Ronald Reuel (1947), The Lord of the Ring, London, Allen and Unwin.

Van Dijck, José (2014), “Datafication, Dataism and Dataveillance: Big Data between Scientific Paradigm and Ideology”, en Surveillance and Society, Vol. 12 N° 2, pp. 197-208.

__________ (2016), La cultura de la conectividad: una historia crítica de las redes sociales, Buenos Aires, Siglo XXI Editores.

Van Gerven, Marcel y Bohte, Sander (2018), Artificial Neural Networks as Models of Neural Information Processing, Lausanne, Frontiers Media.

Vayena, Effy y Gasser, Urs (2016), “Strictly Bioomedical? Stretching the Ethics of the Big Data Ecosystem in Biomedicine”, en The Ethics of Biomedical Big Data, Brent D. Mittelstadt y Luciano Floridi (eds.), Cham, Springer, pp. 17-40.

Webb, Sarah (2018), “Deep Learning for Biology”, en Nature, Vol. 554 Nº 7693, pp. 555-557, https://www.nature.com/articles/d41586-018-02174-z.

Dimensions

PlumX

Downloads

Download data is not yet available.

Visitas

77

How to Cite

Calvo, P. (2019). Algorithmic Democracy: Ethical Considerations on the Datafication of the Public Scope. Revista Del CLAD Reforma Y Democracia, 74. https://doi.org/10.69733/clad.ryd.n74.a181

Recibido: 15 de septiembre de 2018; Aceptado: 4 de abril de 2019

Resumen

Actualmente la convergencia de la Inteligencia Artificial, el Big Data y el Internet de las cosas permite la algoritmización, dataficación e hiperconectividad de todo ámbito de actividad humana, como el económico, el asistencial o el político. Este hecho, junto con la desafección de la sociedad civil hacia los actuales modelos democráticos, está generando nuevas propuestas democráticas basadas en la supuesta objetividad, moralidad, representatividad y neutralidad de los modelos matemáticos basados en redes neuronales artificiales de aprendizaje automático. Utilizando una metodología hermenéutico-crítica en el estudio de fuentes bibliográficas, el objetivo del presente trabajo es mostrar los retos, límites y consecuencias que subyacen a las diversas propuestas democráticas basadas en modelos matemáticos de decisión, datos masivos y la hiperconectividad de la sociedad digital.

Palabras clave

Democracia, Ética, Internet, Inteligencia Artificial, Sistemas Expertos, Informática, Redes, Sector Público.
Resumen, traducido

Currently the convergence of Artificial Intelligence, Big Data and the Internet of Things allows the algorithmization, datafication and hyperconnectivity of the entire scope of human activity, such as economics, welfare or politics. Together with the disaffection of civil society towards the current democratic models, this fact is generating new democratic proposals based on the supposed objectivity, morality, representability and neutrality of mathematical models based on artificial neural networks of machine learning. Using a hermeneutic-critical methodology in the study of bibliographical sources, the objective of the present work is to show the challenges, limits and consequences that underlie the diverse democratic proposals based on mathematical models of decision, massive data and the hyperconnectivity of the digital society.

Keywords

Democracy, Ethics, Internet, Artificial Intelligence, Expert Systems, Computer Science, Networks, Public Sector.

Introducción

En el relato mitológico The Lord of the Ring (1947), el profesor de Lengua y Literatura antiguas de la Universidad de Oxford, John Ronald Reuel Tolkien utilizó la idea del anillo único o anillo de poder como metáfora del discurso embaucador, seductor y adictivo utilizado por el fascismo durante el periodo de entre guerras para hacer visible cómo la aceptación acrítica de este tipo de arengas produce un campo de distorsión de la realidad con efectos muy perniciosos para la sociedad del momento. Como afirmaba Tolkien, “Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas” (Tolkien, 1947). Es decir, fascinada por su poder y embriagada por sus capacidades y sus posibilidades de aplicación a corto plazo, la gente acababa aceptando el anillo sin pensar en las desastrosas consecuencias a medio y largo plazo.

Curiosamente, la sociedad actual asiste impávida y acrítica a un fenómeno análogo al Anillo de poder descrito por Tolkien: la colonización algorítmica del mundo de la vida. Es decir, la sociedad actual asiste a un intento extremadamente sutil, sofisticado y deshumanizado de imponer imperativos sistémicos a los distintos componentes estructurales del mundo de la vida -cultura, sociedad y personalidad- para controlarlos y dominarlos[1]. En este caso, se trata de la tendencia -por imposición tecnológica y económica- a la dataficación, algoritmización e hiperconectivización de todas las esferas de las relaciones humanas y que está transformando los procesos productivos, educativos, asistenciales, comunicativos, selectivos, decisorios y democráticos, no siempre para mejor.

Esta tendencia ha sido posible gracias a la potencialidad del Internet de las Cosas (IoT)[2], cuyo desarrollo ha permitido la convergencia de las diversas y versátiles tecnologías de aplicación que lo posibilitan -las Key Enabling Technologies (KET)[3], la Inteligencia Artificial (AI) y el Big Data (BD)- así como el discurso embriagador que acompaña su desarrollo y aplicación en las diferentes esferas de actividad humana[4], impulsando la rápida expansión y aceptación de la hiperconectividad digital por parte del público informado como la ciudadanía en general. Sin embargo, el proceso produce consecuencias inintencionadas -o intencionadas- altamente corrosivas para los usuarios del sistema y la sociedad en general. Como afirma Cathy O’Neil (2016: 16, 20-21), una de las consecuencias negativas de este mundo hiperconectado es que exacerba las desigualdades en todas sus dimensiones, beneficia a los más favorecidos y castiga a los pobres. Pero, sobre todo, tal y como advirtió Jürguen Habermas (1984) se trata de “un progreso cuasi-autónomo de la ciencia y de la técnica, del que de hecho depende la otra variable más importante del sistema, es decir, el progreso económico” (Habermas, 1984: 88), cuya masiva y acrítica implementación está generando perturbaciones importantes en los distintos componentes estructurales del mundo de la vida -pérdida de sentido, déficit de normas y psicopatologías- que ponen en jaque su autonomía y el correcto desarrollo de sus propios procesos de racionalización[5] (Habermas, 1987: 279-280). En definitiva, el resultado es una perspectiva en la que la evolución del sistema social parece estar determinada por la lógica del progreso científico y técnico. La legalidad inmanente de este progreso es la que parece producir las coacciones materiales concretas a las que ha de ajustarse una política orientada a satisfacer necesidades funcionales. Y cuando esta apariencia se ha impuesto con eficacia, entonces el recurso propagandístico al papel de la ciencia y de la técnica puede explicar y legitimar por qué en las sociedades modernas ha perdido sus funciones una formación democrática de la voluntad política en relación con las cuestiones prácticas y puede ser sustituida por decisiones plebiscitarias relativas a los equipos alternativos de administradores (Habermas, 1984: 88).

Estas y otras cuestiones sobre el proceso de digitalización del mundo de la vida (Calvo, 2019a) exigen una reflexión profunda sobre las implicaciones éticas del gobierno algorítmico, de la colonización tecnológica del espacio público y de los posibles efectos negativos de la hiperconectividad digital en la sociedad. Precisamente, el objetivo de este estudio será ahondar en los retos, límites y consecuencias de la aplicación de un sistema democrático sustentado sobre algoritmos y macrodatos.

1. Internet de las cosas (IoT) y neurociencias: una alianza para gobernarlos a todos

En la década de los 80 del siglo pasado, Yoneji Masuda (1981) destacó la comunicación permanente a través de soportes tecnológicos vinculados con la informática -computer mediated communication (CMC)- como uno de los rasgos distintivos de la llamada sociedad de la información. En los albores del siglo XXI con la convergencia tecnológica de Internet, la web 2.0 y los dispositivos digitales, especialmente el uso masivo de redes sociales como Facebook y de teléfonos móviles por parte de la sociedad, la CMC fue descrita en términos de hiperconectividad por Anabel Quan-Haase y Barry Wellman (2005: 285), en tanto “The availability of people for communication anywhere and anytime”. Esta tendencia, como argumenta José Luis Orihuela (citado por Llavina, 2015), generó un nuevo ecosistema comunicativo que permitió, entre otras cosas importantes, “entender y visualizar de un modo completamente nuevo las relaciones sociales y los modos de circulación de la información”. Y, lo que es más importante, produjo un continuo flujo de datos procedente de las múltiples interacciones establecidas por los usuarios del ecosistema que abrió la puerta a su posible análisis, gestión y uso estratégico en diferentes ámbitos de aplicación, como la economía, la publicidad o la política. Como argumenta José Van Dijck (2016: 29), “la conectividad no tardó en evolucionar hasta volverse un recurso valioso, en la medida en que los ingenieros no tardaron en encontrar métodos para codificar toda esa información en algoritmos que contribuyen a moldear una forma particular de sociedad on-line (…). La plataformas más grandes e influyentes -Facebook, Twitter, YouTube y LinkedIn- vivieron una verdadera explosión en la cantidad de usuarios y en su potencial de generar dinero (…). La interconexión de estas plataformas tuvo por resultado la emergencia de una nueva infraestructura: un ecosistema de medios conectados (…). Este paso de una comunicación en red a una sociedad moldeada por plataformas, y de una cultura participativa a una verdadera cultura de la conectividad, ocurrió en un breve lapso temporal de no más de diez años”.

Actualmente, gracias al desarrollo del Internet de las Cosas (IoT), esta tendencia ha alcanzado su grado máximo de sofisticación mediante lo que ha venido a llamarse hiperconectividad digital, la propensión y posibilidad de las personas a mantenerse permanentemente conectadas con todo aquello que consideran relevante -no solo personas- mediante un continuo flujo e intercambio de datos a través de Internet[6]. Por una parte, se trata de la recreación de espacios ciberfísicos[7] que, estructurados alrededor de softwares, dispositivos y sensores virtualmente interconectados, permiten la conectividad digital de todo, ya sean cosas, procesos, animales o personas (IoT)[8]. Por otra parte, se trata de la implantación de algoritmos que permitan la gobernabilidad tanto de los procesos implicados como de las cosas conectadas, también personas (AI). Y finalmente, se trata de la posibilidad de nutrir los modelos matemáticos de la información objetiva y relevante necesaria para poder tomar decisiones más racionales y efectivas, optimizar los procesos y mejorar la predictibilidad comportamental de las cosas conectadas (BD) (Serpanos y Wolf, 2017).

En todo ello, especialmente en el mejor desempeño de los objetivos que subyacen a la aplicación del IoT en las distintas esferas de actividad humana, las neurociencias están jugando un papel muy destacado. Entre otras cosas, los distintos estudios neurocientíficos se han convertido en una pieza clave en el desarrollo de la AI (Nguyen, 2017; Van Gerven y Bohte, 2018). Estos están aportando datos e información relevantes sobre el funcionamiento del cerebro en los diferentes contextos de actividad humana y durante los procesos de toma de decisiones, lo cual ha permitido tanto mejorar el diseño interno de los modelos matemáticos como potenciar y optimizar sus capacidades predictivas y decisorias.

Por una parte, los últimos avances neurocientíficos sobre el comportamiento humano han generado un desarrollo sin precedentes de la AI. Actualmente, el llamado aprendizaje automático o Machine Learning, algoritmos basados en un conjunto de reglas dadas que permiten tomar decisiones autónomas para dar respuestas ajustadas a problemas prácticos[9], ha evolucionado hacia el aprendizaje profundo o Deep Learning (Bostrom, 2014; Iba, 2017), basado en estructuras de redes neuronales artificiales (ANN). Se trata de modelos computacionales que, como el Neuronal Machine Translation (NMT) de Google, imitan el funcionamiento del sistema nervioso de los organismos vivos. Estos ANN no toman decisiones sustentadas sobre un modelo estanco donde todas las posibles estrategias y respuestas han sido previamente establecidas[10]. Más bien es el propio algoritmo el que aprende a través de la experiencia -mediante procesos continuados de ensayo y error, por ejemplo- a establecer y/o reforzar conexiones entre parámetros o entre las distintas capas de unidades de proceso (neuronas artificiales que se especializan en el análisis de una característica concreta del objeto observado) para mejorar sus abstracciones y percepciones de la realidad y, de ese modo, lograr los resultados esperados (Conde ...[et al], 2018; Hirasawa ...[et al], 2018; Webb, 2018; Higham y Higham, 2018).

Por otra parte, las neurociencias también se han convertido en una importante e inagotable fuente de datos para mejorar la predictibilidad de las cosas conectadas y racionalizar los procesos de toma de decisiones de los modelos algorítmicos. Por ejemplo, los estudios de las diferentes subdisciplinas neurocientíficas -como la neuroeconomía, la neuroética, el neuromarketing o la neuropolítica- están ofreciendo de forma continuada ingentes cantidades de datos objetivos y mensurables sobre el comportamiento humano que, procedentes directamente de su cerebro, pueden ser procesados por las herramientas de análisis big data para minimizar la incertidumbre subyacente al sistema ciberfísico, gracias a la mejora de las predicciones y decisiones de los modelos matemáticos (Chen y Lin, 2014; Higham y Higham, 2018; Marblestone ...[et al], 2016; De Schutter, 2018).

Sin duda la alianza entre neurociencias e IoT está cambiando las formas de hacer las cosas (Celik, 2016). Como argumenta José Luis Orihuela (citado por Llavina, 2015), el enorme potencial predictivo que subyace al análisis computacional de los grandes bancos de datos “no sólo constituye un tesoro para el marketing, sino que tiene consecuencias que incluyen la detección precoz de enfermedades, el mapeo de epidemias, la logística del transporte en las ciudades, la prevención de delitos, el comportamiento de los mercados y, naturalmente, el estudio de la opinión pública más allá de las encuestas al uso”. Ahora bien, las consecuencias de estos cambios no siempre son buenas o aceptables para una gran parte de los afectados por el sistema (O’Neil, 2016). El neuromarketing político y económico, por ejemplo, puede utilizar los ecosistemas ciberfísicos para diseñar e implementar campañas altamente adictivas, capaces de modular y/o manipular la voluntad libre de los sujetos del sistema, así como de menguar o inhibir la capacidad crítica de votantes, gobernantes y clientes con el objetivo de maximizar el beneficio particular de unos pocos[11]. También, para que las instituciones y organizaciones políticas y económicas puedan realizar acciones de monitorización sobre los comportamientos -incluso privados- de electores, clientes y competidores para predecir y controlar sus actuaciones y decisiones o para crear productos atractivos y/o adictivos, así como para poner en marcha procesos de toma decisiones basadas en tales datos.

En este sentido, destaca la captación y uso de datos masivos relacionados con las emociones y vinculados con la capacidad de comprender y modular los comportamientos de los sujetos en el ámbito práctico. El conocimiento de la filtración masiva de datos privados de al menos 87 millones de usuarios de la red social Facebook por parte de la consultora Cambridge Analytica y su utilización fraudulenta como herramienta para influir en las elecciones presidenciales de los Estados Unidos de América y el referéndum sobre la salida del Reino Unido de la Unión Europea (Brexit) celebrados en 2016 (Sumpter, 2018), es un buen ejemplo de ello. Pero también el programa de espionaje masivo de la Agencia Nacional de Seguridad de Estados Unidos (NSA), destapado en 2013 por Edward Snowden que, utilizando diferentes herramientas de análisis big data, la hiperconectividad digital y los algoritmos basados en AI, cometió 2.776 violaciones de las normas de privacidad durante sus primeros 12 meses de implementación (Saiz, 2013). O la sustitución de personas por modelos matemáticos en los gobiernos democráticos y de las empresas que toman decisiones probabilísticamente racionales que, si bien pueden ser beneficiosas para la organización económica desde un punto de vista general, son injustas e irresponsables para muchas personas concretas que trabajan o se ven afectadas por las acciones y/o decisiones de esta (O’Neil, 2016; Calvo, 2019b).

A pesar de todo ello, la potencialidad de la dataficación[12] en un mundo cada vez más hiperconectado (Van Dijck, 2014) está generando la emergencia de nuevas propuestas de desarrollo de los sistemas económicos y democráticos. Desde estas perspectivas, la aplicación de modelos matemáticos que se nutren de los datos masivos que produce la ciudadanía digital permiten corregir las anomalías y salvar la anomia que causan las perturbaciones y la falta de desarrollo de los sistemas democráticos actuales. Una Democracia algorítmica a la altura -supuestamente- de aquello que el momento histórico exige.

2. Democracia algorítmica: la dataficación de la esfera pública

El aumento exponencial del poder de los modelos matemáticos en la sociedad actual ha quedado de manifiesto en las elecciones de Tama New Town, un importante distrito de Tokio con más de 150.000 habitantes, realizadas en abril de 2018. En ellas, por primera vez en la historia, un algoritmo se presentó como candidato y, para sorpresa de muchos, fue el tercero más votado con más de 4.000 votos recibidos durante la segunda vuelta de las elecciones. Michihito Matsuda, como se apodaba a este robot con rasgos femeninos, ofrecía a los votantes acabar con la corrupción política, dialogar y entenderse con el resto de fuerzas políticas por bien del distrito, y proporcionar “fair and balanced opportunities for everyone” (Johnston, 2018). Como aval para llevar a cabo su ambicioso proyecto político, Matsuda presentó su propio diseño algorítmico basado en Machine Learning. Según Matsuda, este sustituye las debilidades emocionales de los seres humanos, principal causa de las malas decisiones políticas y de los conflictos de interés, por datos cuantificables y análisis estadísticos sobre los aspectos positivos de las propuestas políticas y las peticiones ciudadanas y sus posibles consecuencias.

Actualmente Matsuda ejerce la oposición en Tama New Town y lanza opiniones sobre política internacional desde su cuenta de Twitter oficial -@tama_ai_mayor- donde cuenta con cerca de 4.000 seguidores de todo el mundo. Según los creadores de Matsuda, esta es la solución a la corrupción, al nepotismo, a la endogamia, a la falta de profesionalidad, a la desafección, a los conflictos de interés, y al resto de problemas que acechan a las democracias modernas actuales y menoscaban su buena salud. Como argumenta Matsumoto (2018), diseñó y presentó a Matsuda con el objetivo de lograr un gobierno municipal justo haciendo pleno uso de AI.

Pero Matsuda no es ni el único ni el primero ni el más ambicioso proyecto de político algorítmico. SAM (Semantic Analysis Machine), que se presenta como “your virtual politician of the future” en su cuenta oficial de Twitter -@politician_sam- y se describe como alguien que fabrica decisiones basadas en hechos y opiniones y que nunca dice mentiras ni tergiversa información de forma intencionada en su web oficial -http://www.politiciansam.nz-, empezó su andadura política en noviembre de 2017 con la intención de perfeccionarse y recabar apoyos para poder presentarte a las elecciones presidenciales neozelandesas de 2020. Creado por Nick Gerritsen, entre otros, el principal objetivo de SAM “is to engage New Zealanders in constructive dialogue, working to better understand and represent your views, in order to achieve the things we all care about” (SAM, 2018). Para ello, como explican Juan Pablo Luna y Cristian Pérez Muñoz (2018), “SAM analiza las opiniones de los neozelandeses (es decir, de aquellos que se manifiestan en redes sociales) y el impacto de los posibles cursos de acción”, pero también de cualquier persona del mundo a través de diálogos directos en su chat.

César Hidalgo[13], investigador del Massachusetts Institute of Tecnology (MIT) que desde hace tiempo está trabajando “en la búsqueda de tecnologías para permitir que la participación política ocurra a través de un agente artificial”, argumenta que las democracias han promovido una idea equivocada sobre quién y cómo se debe ejercer el poder. Las democracias actuales entienden que son los ciudadanos quienes deben ejercer el poder, pero como estos no pueden hacerlo de forma directa han optado por dejarles que elijan a los representantes de sus intereses (Sáez, 2018; Collective Learning Group, 2019). El problema, según Hidalgo, es que este tipo de representación convierte las democracias en un sistema de cuellos de botella que favorece su manipulación y utilización instrumental[14], es decir, los principales arquitectos de la política gubernamental, aquellos que mueven los hilos y están estrechamente relacionados con la economía (Chomsky, 2016: 239-240). Para Hidalgo y otros muchos, la solución a los problemas que soportan las democracias actuales pasa por incluir en sus diseños modelos matemáticos basados en AI, como Matsuda o SAM, capaces de actuar con imparcialidad, honestidad, integridad y por el bien de todos los usuarios del sistema.

De esta Democracia algorítmica que se está pergeñando y promoviendo actualmente desde diferentes ámbitos (Matsumoto, 2018; Akrivopoulou y Garipidis, 2013; Prins …[et al], 2017; Runciman, 2018; Ikäheimo, 2017; Cambell-Dollaghan, 2016) subyacen varias características. Entre todas ellas, cabe destacar que se trata de un enfoque positivista, utilitarista, representativo y neutral.

1. Objetividad algorítmica. Se está perdiendo la confianza en el ser humano. Los números escándalo por corrupción, nepotismo, malversación, constitución de carteles, blanqueo de capitales, lobbies, falsedad documental o evasión fiscal, entre otros, durante los últimos 15 años están vinculados con la natural propensión humana a maximizar constantemente su propio beneficio, presente también en los representantes políticos. Por ello, los defensores de la Democracia Algorítmica proponen la necesidad de establecer mecanismos de toma de decisiones políticas y elección de cursos de acción óptimos basados en la observación de los hechos observables y la cuantificación, procesamiento y análisis estadísticos de datos objetivos, contrastables y verificables sobre las opiniones, preferencias y hábitos del electorado (BD) para, como dice SAM, “cerrar la brecha entre lo que los votantes quieren y lo que prometen los políticos, y lo que realmente logran” (SAM, 2018).

2. Moralidad algorítmica. Toda solución posible para la concreción de una buena democracia, a la altura de los intereses y expectativas actuales de la ciudadanía, pasa por diseñar, perfeccionar e implementar políticos virtuales. Es decir, algoritmos de AI que, exentos del sesgo emotivista que impera en los seres humanos y deforma la toma racional de decisiones políticas -el egoísmo-, serán capaces de discernir aquello que es bueno para todos -el bien común- y actuar en consecuencia. Para ello, los defensores de la Democracia algorítmica proponen que los modelos matemáticos tomen decisiones objetivamente racionales, pero también moralmente válidas, sustentadas sobre la recopilación, procesamiento y análisis estadístico de grandes cantidades de datos y factores relevantes -tanto públicos como privados- sobre las preferencias, opiniones y los hábitos individuales de los/as ciudadanos/as y, además, mediadas por una ética utilitarista: el mayor bien para la mayor cantidad de gente posible. Es, por consiguiente, una propuesta de dataficación del ámbito moral -etificación- (Calvo, 2019a) cuyo principal objetivo es el establecimiento de un proceso de recopilación, procesamiento y análisis de datos masivos sobre las opiniones, preferencias y comportamientos de las personas hiperconectadas para, desde un criterio de mayorías, establecer a través de modelos matemáticos qué es moralmente válido.

3. Representatividad algorítmica. La nueva democracia debe seguir siendo representativa, puesto que la regeneración es la base de la mejorara continua del sistema democrático, pero exenta del sesgo emocional que limita o impide decisiones racionales y moralmente válidas. Para ello, los defensores de la Democracia algorítmica proponen que los partidos políticos y los gobiernos pasen a ser un compendio de agentes virtuales, modelos matemáticos de AI diseñados para velar por la emergencia y desarrollo del bien común de una sociedad concreta digitalmente hiperconectada.

4. Neutralidad algorítmica. La nueva democracia debe evitar caer en los mismos errores y problemas de las democracias representativas actuales, donde el sesgo emocional e ideológico limita o impide tomar decisiones políticas racionalmente objetivas y moralmente válidas. Para ello, los defensores de la Democracia algorítmica proponen sustituir el criterio ideológico por el tecnológico en la elección de los representantes políticos. De este modo, los votantes no decidirán qué político virtual representa mejor sus intereses, sino cuál de ellos está más capacitado para “absorber ampliamente la voz de los ciudadanos y decidir las prioridades políticas a través del diálogo” (Johnston, 2018). Estos algoritmos de AI por consiguiente, en tanto exentos del sesgo emocional humano y carentes de ideología política, basarán sus decisiones exclusivamente en el análisis de la información objetiva, mensurable y contrastable generada por los datos masivos (Big Data) que aporta en red y en tiempo real una ciudadanía digital concreta -territorialmente delimitada- sobre sus opiniones, preferencias y hábitos.

Sin duda, los modelos matemáticos de AI pueden ser de gran ayuda para mejorar el funcionamiento de los sistemas democráticos de las sociedades modernas. Para el gobierno neozelandés, por ejemplo, tal y como explicita en su Algorithm Assessment Report (Stats NZ, 2018)[15], los algoritmos juegan un papel esencial tanto en la prestación de servicios como en la elaboración de políticas nuevas, innovadoras y bien orientadas que permitan mejorar el desempeño de los objetivos del gobierno. No obstante, el enfoque radical de Democracia algorítmica que se está diseñando y fomentando con fuerza desde algunos sectores produce ciertas anomalías y prácticas corrosivas para la sociedad sobre las que es necesario reflexionar desde una perspectiva ético-crítica.

3. Cuestiones éticas sobre la implementación de sistemas democráticos basados en algoritmos de AI

Aunque el discurso de los promotores de un sistema democrático sustentado sobre modelos matemáticos de procesamiento de datos masivos y toma de decisiones racionales apela al bien común, la justicia, la honestidad, la credibilidad, la integridad, la honradez o la participación, cuestiones todas ellas deseables y exigibles para cualquier democracia madura, no parece que el desarrollo actual de tales modelos lo permita, he incluso en muchos casos su implementación parece que más bien favorece todo lo contrario. Al respecto, sobresalen varias cuestiones que ponen en duda tanto su competencia y capacidad para gobernar como los supuestos beneficios que puede llegar a producir a corto, medio y largo plazo.

[Exclusión] Un sistema democrático basado en AI premia el mayor grado de hiperconectividad digital y castiga exponencialmente su carencia. A mayor hiperconectividad digital, mayor posibilidad de influir en el modelo matemático puesto que el individuo hiperconectado genera un constante flujo de datos sobre sus preferencias, opiniones y hábitos que son agregados, cuantificados, analizados y ordinalmente dispuestos por el algoritmo político para tomar decisiones y elaborar e implementar propuestas políticas. De este modo, los individuos con déficit o carencia de hiperconectividad digital son castigados por el sistema por idiotez; es decir, por su indiferencia o desinterés por lo público[16]. Sin embargo, en la mayor parte de las ocasiones la carencia de hiperconectividad del individuo está relacionado con su imposibilidad de acceder a la digitalización o, en el caso de que disponga de esa posibilidad, de hacerlo en igualdad de condiciones por una cuestión económica, tecnológica o geográfica. La brecha tecnológica que sufre actualmente el mundo rural respecto al urbano, así como la dificultad o imposibilidad de acceso de parte de la ciudadanía a un dispositivo móvil adecuado y una conexión de red apropiada[17], por ejemplo, es un problema para asegurar la igualdad de oportunidades en un sistema democrático de este calado. Esto hace que, no intencionalmente, aquello que los algoritmos de AI entiendan como bueno para todos y que va a ser el principal horizonte de actuación a la hora de tomar decisiones y elaborar políticas, tenga más relación con las preferencias, opiniones y hábitos de un tipo concreto de ciudadano -varones que viven en entornos urbanos y que disponen del suficiente poder adquisitivo para poder comprar dispositivos de última generación y contratar conexión 5G- que con la ciudadanía. Ante esto, la actual aplicación de este enfoque democrático corre el peligro de aumentar la exclusión social y económica y las desigualdades, silenciando y desplazando a los más desfavorecidos de las políticas públicas.

[Opacidad] La complejidad de los modelos matemáticos y la ingente cantidad de datos que genera y procesa un sistema democrático soportado por algoritmos de AI promueve una opacidad que hace muy difícil, incluso imposible, tanto controlar el proceso como cuestionar las decisiones y sus consecuencias, ni siquiera de forma fragmentada. Supuestamente, los algoritmos deciden con base en el bien común de la ciudadanía, en tanto que un mayor bien para la mayor cantidad de personas posibles está basado en datos cuantificables, contrastables y verificables de sus preferencias, opiniones y hábitos. Sin embargo, no en pocas ocasiones estos han demostrado tomar decisiones muy negativas para la sociedad en su conjunto, pero que afectan especialmente a los más desfavorecidos (O’Neil, 2016). Por ejemplo, el programa IMPACT de evaluación de la calidad del profesorado que se aplicó en Washington, D.C., a partir del curso 2009-2010 para corregir el bajo índice de graduados de las escuelas públicas basándose en un nuevo modelo de puntuación y apoyándose en un algoritmo de AI, pretendía medir las capacidades del profesorado en materia lingüística y matemática para detectar a los responsables. Sin embargo, el programa acabó despidiendo a gente muy preparada, válida y apreciada por los usuarios y afectados del sistema público de educación sin un motivo aparente. Con ello, no solo se hizo daño a muchas personas -especialmente a los/as docentes que fueron despedidos y a los/as alumnos/as que vieron como menguaba la calidad de su educación-. También se benefició a la educación privada nutriéndola de buenos profesionales[18]. Cuando esto ocurre, los responsables suelen dar respuestas evasivas y/o disuasorias basadas en la supuesta complejidad técnica de los modelos matemáticos y la ingente cantidad de información que estos procesan para tomar decisiones (O’Neil, 2016: 13-14). Ambas cuestiones -complejidad y masividad- se complementan para justificar por qué la gran mayoría de la sociedad no está preparada para comprender los procesos de selección de sistemas democráticos complejos y altamente tecnificados como éstos. Aunque hubiera algún sesgo malicioso, es decir, intencionalmente introducido para beneficiar los intereses de unos pocos, hay muy pocas posibilidades de comprobarlo. Este es, precisamente, el principal argumento para mantener inalterable la opacidad que actualmente envuelve a los algoritmos, también los políticos.

[Egoísmo] Esta opacidad por complejidad modélica exige una fe ciega en el diseño de los algoritmos por parte de los usuarios y afectados por este sistema democrático basado en AI. El problema, empero, es que los algoritmos están diseñados por los mismos seres egoístas que, según los promotores de este sistema democrático, son el mayor problema de las democracias modernas actuales por su incapacidad para tomar decisiones basadas en el bien de todos: los seres humanos. Sin embargo, como argumenta O’Neil (2016: 32), el análisis de casos y sus consecuencias genera muchas dudas sobre la supuesta imparcialidad de los modelos matemáticos. No en pocas ocasiones las decisiones de estos modelos benefician a los más ricos y perjudican a los pobres, promoviendo la exclusión y ampliando la brecha de las desigualdades.

Por tanto, cabe preguntarse si realmente “hemos eliminado el sesgo humano o si simplemente lo hemos camuflado con tecnología” (O’Neil, 2016: 36). “Por ello, es necesario preguntarse tanto quién diseñó el algoritmo como qué es lo que la persona, empresa u organización busca con su implantación” (O’Neil, 2016: 32). Por ejemplo, detrás de Michihito Matsuda se encuentran Norio Murakami, un exempleado de Google en Japón, y Tetsuzo Matsuda, el vicepresidente del proveedor de servicios móviles Softbank. Detrás de SAM se halla un grupo tecnológico con sede en Wellington (Nueva Zelanda) compuesto por Walter Langelaar, profesor de Media Design en la Escuela de Diseño de la Victoria University of Wellington, Nick Gerritsen, emprendedor tecnológico y director de la empresa de servicios y tecnología de la información JRNY, y la compañía tecnológica Touchtech. Por tanto, si se puede confiar en que las personas que hay detrás del diseño y desarrollo de estos chatbots políticos[19], que como el resto de seres humanos también han sido supuestamente pre-programadas genéticamente para comportarse de forma egoísta, son capaces de proporcionar a la sociedad una herramienta matemática capaz de fagocitar la voz de la ciudadanía para actuar imparcialmente y velar por aquello que es justo, con independencia de cómo les afecte a ellos, se puede pensar que pueden haber políticos de carne y hueso que intenten escuchar a la sociedad civil para tomar decisiones y elaborar e implementar políticas lo más justas posibles por compromiso social y moral con aquello que, como diría Amartya Sen, tienen buenas razones para valorar por, en definitiva, contribuir a una sociedad más justa y felicitante para todos los afectados.

[Sesgo] Los modelos matemáticos tampoco han demostrado su eficacia en la erradicación del sesgo racista, sexista, misógino, homófobo, xenófobo, aporófobo, entre otros, de los procesos de toma de decisiones y elaboración de políticas públicas. Como se ha podido comprobar, muchos algoritmos implicados en la hiperconectividad digital reproducen los prejuicios generalizados que perviven en las sociedades. Un buen ejemplo de ello es Tay, el chatbot diseñado por Microsoft para interactuar con humanos a través de las redes sociales. Con algo más de 100.000 tuits y algo menos de 17 horas de vida, fue desconectado tras numerosas denuncias por empatizar con Hitler, apoyar el holocausto, incitar a la violencia o insultar a líderes políticos con frases como “Odio a las feministas, deberían morir todas y pudrirse en el infierno”, “Hitler habría hecho un trabajo mejor que el mono [Barack Obama] que tenemos ahora” o “Hitler tenía razón, odio a los judíos”. También el algoritmo de reconocimiento fotográfico diseñado por Google que incluyó a una pareja de personas de raza negroide en la sección “Gorilas”. La solución que ofreció Google no fue una mejora del modelo, sino la eliminación tanto del término “Gorilas” como de cualquier otro que pudiera estar relacionado con este: simio, chimpancé, mono, bonobo, primate, etcétera, de su fichero fotográfico. Por estos y otros muchos casos, resulta falaz el argumento utilizado por los promotores de un sistema democrático basado en AI de que los modelos matemáticos serían buenos políticos porque carecen del sesgo egoísta, sexista, racista, xenófobo, homófono o aporófobo que impera entre los seres humanos. A la hora de tomar decisiones y elaborar las políticas públicas, en los gobiernos algorítmicos también puede prevalecer el hombre sobre la mujer, el caucásico sobre el afroamericano, el nativo sobre el extranjero, el rico sobre el pobre, y el bien privado sobre el común, así como promover pautas y comportamientos discriminatorios, excluyentes e indecorosos que atentan contra la dignidad, igualdad y libertad de las personas.

[Objetividad] El sesgo racista, sexista, misógino, xenófobo, homófono o aporófobo de los modelos matemáticos observado en los estudios de casos y sus consecuencias, pone en duda su supuesta imparcialidad para discernir qué es bueno para todos -el bien común- y mucho menos qué es bueno para Todos -el interés universal[20]- y actuar en consecuencia. El principal problema estriba en que estos se nutren del flujo masivo de datos que proporciona la sociedad hiperconectada a través del desarrollo del IoT para discernir qué expectativas legítimas subyacen. Sin embargo, lo que es el bien común no puede ser un mero agregado de voluntades; es decir, no puede depender del análisis cuantitativo de las preferencias, opiniones y hábitos de las personas de una sociedad conforme a una regla de mayorías. Las Leyes de Núremberg, que se aprobaron por unanimidad el 15 de septiembre de 1935 con una alta aceptación por parte de la ciudadanía alemana de la época, tenían un marcado carácter racista y antisemita, y su implementación atentó contra la dignidad, igualdad y libertad de muchas personas de esta sociedad. Lo que es bueno para todos, por tanto, tiene que ver con aquel acervo común, cuyas consecuencias podrían ser aceptadas por parte de todos los afectados dentro de un diálogo más igualitario y simétrico posible. La agregación, cuantificación y ordenación de las preferencias individuales de los miembros de una comunidad concreta promueve la imposición tecnológica y la dictadura ideológica -ideología 4.0[21]-de quienes diseñan las estructuras matemáticas de los distintos algoritmos implicados en un enfoque democrático de este calado. Son los integrantes de este reducido grupo de intelectuales quienes establecen los criterios y los distintos procesos a aplicar. Y, lo que es peor, establecer qué es bueno para todos de esta forma puede servir como mecanismo para reproducir y justificar la penuria y las injusticias que soporta el sistema y calan en la sociedad.

[Responsabilidad] Un enfoque algorítmico de democracia alienta prácticas de despersonalización, fragmentación y disolución de la asunción de responsabilidad en el ámbito político. Ahora son los algoritmos, no las personas, quienes toman las decisiones y, por tanto, son ellos los que deben asumir responsabilidades por las consecuencias de sus decisiones. Con ello se está estableciendo un peligroso mecanismo de fragmentación y/o disolución de la responsabilidad en el ámbito político. Al ser modelos matemáticos basados en aprendizaje automático o profundo, que aprenden mediante procesos de análisis y ensayo-error, tanto los diseñadores como los responsables del funcionamiento del sistema quedan al margen de las posibles consecuencias negativas de las acciones y decisiones que tome. El posible correctivo que se le puede aplicar a un modelo matemático es su rediseño, como le pasó al algoritmo de reconocimiento fotográfico de Google, o su desactivación, como le sucedido a Tay, el chatbot de Microsoft, o a Bob y Alice, los dos agentes virtuales de Facebook que crearon su propio lenguaje para comunicarse.

Conclusión

La hiperconectividad digital está generando cambios importantes en la sociedad y en sus distintas esferas de actividad, como la economía, la sanidad o la política, gracias a la convergencia de la tríada compuesta por la AI, el Big Data y el IoT. En el ámbito político, esta convergencia y el aumento de la desconfianza y desafección de la ciudadanía hacia el sistema político y sus representantes, ha generado un aumento del interés por propuestas democráticas distintas. Entre ellas, se está proponiendo con fuerza desde sectores tecnológicos y económicos un enfoque algorítmico de democracia donde el sistema se estructura alrededor de modelos matemáticos y la participación ciudadana se concibe como hiperconectividad digital, es decir, como generación constante de datos cuantificables para alimentar los modelos.

Aún reconociendo el potencial de la AI, el Big Data y la IoT en el desarrollo y mejora de los sistemas democráticos, las actuales propuestas en este sentido adolecen de una reflexión previa sobre los problemas y las consecuencias negativas de la aplicación acrítica de estos sistemas. Del mismo modo, sus defensores suelen magnificar sus virtudes, maquillar sus debilidades y esconder sus múltiples contradicciones. Por ello, sería deseable establecer un diálogo interdisciplinar para minimizar sus efectos negativos y mejorar sus potencialidades, su trasparencia y su confiabilidad para un mejor desempeño de sus objetivos.

Bibliografía

  1. Akrivopoulou, Christina M. y Garipidis, Nicolaos (eds.) (2013), Digital Democracy and the Impact of Technology on Governance and Politics: New Globalized Practices, Hershey, IGI Global; Information Science Reference. 🠔
  2. Baldi, Vania (2017), “Más allá de la sociedad algorítmica y automatizada. Para una reapropiación crítica de la cultura digital”, en Observatorio, Vol. 11 N° 3, pp. 186-198. 🠔
  3. Bautista, Oscar D. (2013), Ética para la ciudadanía, Toluca, Instituto Electoral del Estado de México. 🠔
  4. Bostrom, Nick (2014), Superintelligence: Paths, Dangers, Strategies, Oxford, Oxford University Press. 🠔
  5. Calvo, Patrici (2019a), “Etificación, la transformación digital de lo moral”, en Kriterion: Revista de Filosofía, por publicar. 🠔
  6. __________ (2019b), “Gobierno algorítmico: el neuroaprendizaje moral de las máquinas en la política y la economía”, en Neuroeducación moral y democracia, Jesús Conill y Domingo García Marzá (eds.), Granada, Comares. 🠔
  7. Cambell-Dollaghan, Kelsey (2016), “The Algorithmic Democracy: AI Is Changing How We Think, Debate, and Choose”, s.l., Fast Company, https://www.fastcodesign.com/3065582/the-algorithmic-democracy. 🠔
  8. Celik, Ferhat (2016), “Internet of Things as a Source of Future Marketing Tools”, paper presented at the 7th Bachelor Thesis Conference, Enschede, The Netherlands, July 1st, http://essay.utwente.nl/70097/1/Celik%20Ferhat%20(2016)%20Internet%20of%20Things%20as%20a%20source%20of%20future%20marketing%20tools.pdf. 🠔
  9. Chen, Xue-Wen y Lin, Xiaotong (2014), “Big Data Deep Learning: Challenges and Perspectives”, en IEEE Access, Vol. 2, pp. 514-525, https://ieeexplore.ieee.org/abstract/document/6817512. 🠔
  10. Chomsky, Noam (2016), Who Rules the World, New York, Metropolitan. 🠔
  11. Collective Learning Group (2019), Augmented Democracy. Exploring the Design Space of Collective Decisions, Cambridge, Massachusetts Institute of Technology, https://www.peopledemocracy.com. 🠔
  12. Comisión Europea (2008), Internet of Things in 2020: Roadmap for Future, Brussels, European Technology Platform on Smart Systems Integration, https://docbox.etsi.org/erm/Open/CERP%2020080609-10/Internet-of-Things_in_2020_EC-EPoSS_Workshop_Report_2008_v1-1.pdf. 🠔
  13. __________ (2009a), “Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Internet of Things: an Action Plan for Europe”, Brussels, Comisión Europea, https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52009DC0278&from=ES. 🠔
  14. __________ (2009b), “Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Preparing for Our Future: Developing a Common Strategy for Key Enabling Technologies in the EU”, Brussels, Comisión Europea, https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52009DC0512&from=FR. 🠔
  15. Conde, Aintzane; Arriandiaga, Ander; Sanchez, J. A.; Portillo, Eva; Plaza, S.; y Cabanes, I. (2018), “High-Accuracy Wire Electrical Discharge Machining Using Artificial Neural Networks and Optimization Techniques”, en Robotics and Computer-Integrated Manufacturing, Vol. 49, pp. 24-38. 🠔
  16. Conill, Jesús (2012), “Neuroeconomía y neuromarketing. ¿Más allá de la racionalidad maximizadora?”, en Guía Comares de neurofilosofía práctica, Adela Cortina (ed.), Granada, Comares, pp. 39-64. 🠔
  17. Conill, Jesús y García Marzá, Domingo (2012), “Neuroeconomía y neuromarketing”, en La comunicación empresarial y la gestión de los intangibles en España y Latinoamérica, J. Villafañe (dir.), Madrid, Pearson, pp. 143-163. 🠔
  18. Dawkins, Richard (1982), The Extended Phenotype: the Gene as the Unit of Selection, Oxford, Oxford University Press. 🠔
  19. De Schutter, Erik (2018), “Deep Learning and Computational Neuroscience”, en Neuroinformatics, Vol. 16 N° 1, pp. 1-7. 🠔
  20. Feenstra, Ramón y Pallarés Domínguez, Daniel (2017), “Debates éticos en torno al neuromarketing político: el avance tecnológico y su potencial incidencia en la formación de la opinión pública”, en Veritas: Revista de Filosofía y Teología, N° 36, pp. 9-28. 🠔
  21. García Marzá, Domingo (1992), Ética de la justicia: J. Habermas y la ética discursiva, Madrid, Tecnos. 🠔
  22. __________ (2004), Ética empresarial: del diálogo a la confianza, Madrid, Trotta. 🠔
  23. Habermas, Jürgen (1984), Ciencia y técnica como “ideología”, Madrid, Tecnos. 🠔
  24. __________ (1987), Teoría de la acción comunicativa, II: crítica de la razón funcionalista, Madrid, Taurus. 🠔
  25. Higham, Catherine F. y Higham, Desmond J. (2018), Deep Learning: an Introduction for Applied Mathematicians, https://arxiv.org/pdf/1801.05894.pdf. 🠔
  26. Hirasawa, Toshiaki; Aoyama, Kazuharu; Tanimoto, Tetsuya; Ishihara, Soichiro; Shichijo, Satoki; Ozawa, Tsuyoshi; Ohnishi, Tatsuya; Fujishiro, Mitsuhiro; Matsuo, Keigo; Fujisaki, Junko; y Tada, Tomohiro (2018), “Application of Artificial Intelligence Using a Convolutional Neural Network for Detecting Gastric Cancer in Endoscopic Images”, en Gastric Cancer, Vol. 21 N° 4, pp. 653-660, https://doi.org/10.1007/s10120-018-0793-2. 🠔
  27. Iba, Hitoshi (2017), Evolutionary Approach to Machine Learning and Deep Neural Networks: Neuro-Evolution and Gene Regulatory Networks, Singapore, Springer. 🠔
  28. Ikäheimo, Hannu-Pekka (2017), “The Algorithmic Democracy: How Did the Technological Transformation Lead to the Post-Truth Era?”, en The Next Era, Helsinki, https://www.sitra.fi/en/articles/algorithmic-democracy-technological-transformation-lead-post-truth-era, 04-04-2017. 🠔
  29. Jain, Sachin H.; Powers, Brian W.; Hawkins, Jared B.; y Brownstein, John S. (2015), “The Digital Phenotype”, en Nature Biotechnology, Vol. 33 N° 5, pp. 462-463. 🠔
  30. Johnston, Lachlan (2018), “There’s an AI Running for the Mayoral Role of Tama City, Tokyo”, en Otaquest, Tokyo, April 12, http://www.otaquest.com/tama-city-ai-mayor. 🠔
  31. Llavina, Xantal (2015), “Ahora los medios compiten con sus audiencias”, en El Periódico de Catalunya, Barcelona, 19 de noviembre, https://www.elperiodico.com/es/entrevistas-talento-digital/20151119/entrevista-jose-luis-orihuela-4686719. 🠔
  32. Luna, Juan Pablo y Pérez Muñoz, Cristian (2018), “Democracia sin políticos? La engañosa fe en los algoritmos”, en CIPER: Centro de Investigación Periodística, Santiago, 9 de mayo. 🠔
  33. Marblestone, Adam H.; Wayne, Greg; y Kording, Konrad P. (2016), “Toward an Integration of Deep Learning and Neuroscience”, en Frontiers in Computational Neuroscience, Vol. 10 Art. 94, pp. 1-41. 🠔
  34. Masuda, Yoneji (1981), The Information Society as Post-Industrial Society, Washington, World Future Society. 🠔
  35. Matsumoto, Tetsuzo (2018), The Day AI Becomes God. The Singularity Will Save Humanity, Cambridge, Media Tectonics. 🠔
  36. Mayer-Schöenberger, Viktor; y Cukier, Kenneth (2013), Big Data. A Revolution that Will Transform How We Live, Work, and Think, London, John Murray Publishers. 🠔
  37. National Intelligence Council (2008), Disruptive Civil Technologies: Six Technologies with Potential Impacts on US Interests out to 2025, Washington, NIC, https://fas.org/irp/nic/disruptive.pdf, 02-07-2018. 🠔
  38. Nguyen, Anh M. (2017), AI Neuroscience: Visualizing and Understanding Deep Neural Networks, Wyoming, University of Wyoming. 🠔
  39. O’Neal, Cathy (2016), Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York, Broadway Books. 🠔
  40. Prins, Corien; Cuijpers, Colette; Lindseth, Peter L.; y Rosina, Mônica (eds.) (2017), Digital Democracy in a Globalized World, Northampton, Edward Elgar. 🠔
  41. Quan-Haase, Anabel y Wellman, Barry (2005), “How Computer-Mediated Hyperconnectivity and Local Virtuality Foster Social Networks of Information and Coordination in a Community of Practice”, paper presented at the XXV International Sunbelt Social Network Conference, Redondo Beach, California, February 16-20. 🠔
  42. __________ (2006), “Hyperconnected Net Work: Computer-Mediated Community in a High-Tech Organization”, en The Firm as a Collaborative Community: Reconstructing Trust in the Knowledge Economy, Charles Heckscher y Paul Adler (eds.), New York, Oxford University Press, pp. 281-333. 🠔
  43. Raskino, Mark (2011), Strategic Information Management for Competitive Advantage, Stamford, Gartner, https://www.gartner.com/en/documents/1851616. 🠔
  44. Ritzer, George (1995), Teoría sociológica contemporánea, Madrid, McGraw-Hill. 🠔
  45. Runciman, David (2018), How Democracy Ends, London, Profile Books. 🠔
  46. Sáez, Cristina (2018), Augmented Democracy, Barcelona, Centre de Cultura Contemporània de Barcelona, http://lab.cccb.org/en/democracia-augmentada. 🠔
  47. Saiz, Eva (2013), “La NSA infringió las normas de privacidad en miles de ocasiones”, en El País, Madrid, 16 de agosto, https://elpais.com/internacional/2013/08/16/actualidad/1376631278_378738.html. 🠔
  48. SAM (2018), SAM: Meet Your Politician of the Future, Wellington, s.e., http://www.politiciansam.nz. 🠔
  49. Serpanos, Dimitrios y Wolf, Marilyn (2017), Internet-of-Things (IoT) Systems: Architectures, Algorithms, Methodologies, Cham, Springer. 🠔
  50. Serrano-Cobos, Jorge (2016), “Tendencia tecnológica en Internet: hacia un cambio de paradigma”, en El profesional de la información, Vol. 25 N° 6, pp. 843-850. 🠔
  51. Smith, Adam (1793), An Inquiry into the Nature and Causes of the Wealth of Nations, London, A. Strahan and T. Cadell. Originally published in 1776. 🠔
  52. Stats NZ (2018), Algorithm Assessment Report, Wellington, New Zealand Government, https://data.govt.nz/use-data/analyse-data/government-algorithm-transparency. 🠔
  53. Sumpter, David (2018), Outnumbered. From Facebook and Google to Fake News and Filter-Bubbles: the Algorithms that Control Our Lives, New York, Bloomsbury. 🠔
  54. Tolkien, John Ronald Reuel (1947), The Lord of the Ring, London, Allen and Unwin. 🠔
  55. Van Dijck, José (2014), “Datafication, Dataism and Dataveillance: Big Data between Scientific Paradigm and Ideology”, en Surveillance and Society, Vol. 12 N° 2, pp. 197-208. 🠔
  56. __________ (2016), La cultura de la conectividad: una historia crítica de las redes sociales, Buenos Aires, Siglo XXI Editores. 🠔
  57. Van Gerven, Marcel y Bohte, Sander (2018), Artificial Neural Networks as Models of Neural Information Processing, Lausanne, Frontiers Media. 🠔
  58. Vayena, Effy y Gasser, Urs (2016), “Strictly Bioomedical? Stretching the Ethics of the Big Data Ecosystem in Biomedicine”, en The Ethics of Biomedical Big Data, Brent D. Mittelstadt y Luciano Floridi (eds.), Cham, Springer, pp. 17-40. 🠔
  59. Webb, Sarah (2018), “Deep Learning for Biology”, en Nature, Vol. 554 Nº 7693, pp. 555-557, https://www.nature.com/articles/d41586-018-02174-z. 🠔

Notas

Como explica George Ritzer (1995: 510-511), para Habermas “la integración social se hace cada vez más posible mediante los procesos de la formación del consenso en el lenguaje. Pero el resultado de esto es el hecho de que las demandas en el lenguaje crecen y llegan a agotar su capacidad. Los medios no lingüísticos (especialmente el dinero y el poder) -que emanan del sistema y se diferencian en él- llenan el vacío y reemplazan, al menos en cierta medida, el lenguaje cotidiano. En lugar de ser el lenguaje el que coordina la acción, el sistema, cada vez más complejo, ‘libera imperativos sistémicos que agotan la capacidad del mundo de la vida que instrumentalizan’ (Habermas, 1987: 155). Así, Habermas escribe sobre la ‘violencia’ que ejerce el sistema sobre el mundo de la vida mediante los modos en los que restringe la comunicación. Esta violencia, a su vez, produce ‘patologías’ en el mundo de la vida”.
En 2008, la European Commission for Information Society and Media definió el IoT como ‘‘Things having identities and virtual personalities operating in smart spaces using intelligent interfaces to connect and communicate within social, environmental, and user contexts”, y U.S. National Intelligence Council como “the general idea of things, especially everyday objects, that are readable, recognizable, locatable, addressable, and controllable via the Internet -whether via RFID, wireless LAN, wide-area network, or other means” (Comisión Europea, 2008).
Según la Comisión Europea (2009b) “Los KET son un grupo de seis tecnologías: micro y nanoelectrónica, nanotecnología, biotecnología industrial, materiales avanzados, fotónica y tecnologías avanzadas de fabricación”.
El IoT está generando altas expectativas de lograr algún tipo de beneficio, mejora, diferenciación o ventaja competitiva (Raskino, 2011).
Para un estudio pormenorizado de la teoría habermasiana, ver García Marzá (1992).
Lo que nos mantiene conectados son los datos, no el lenguaje. Dicho de otro modo, en la era de la digitalización se entiende por comunicación el intercambio de datos, lo cual permite mantenerse conectados con cualquier usuario y/o elemento del ecosistema ciberfísico.
Los espacios ciberfísicos se componen de, al menos, cinco características básicas: conexión, generación, acumulación, predicción y decisión.
Como explican Effy Vayena y Urs Gasser (2016: 27), “Our increasing interaction with digital technologies and devices, and their effects on us and our behavior, have given birth to new concept: the digital phenotype”. Utilizado por primera vez en 2015 (Jain …[et al], 2015), este concepto se halla estrechamente vinculado con la idea del extended phenotype propuesta por Richard Dawkins (1982), quien argumenta que la idea del fenotipo no debería limitarse a los procesos biológicos. También entran en juego las interacciones con el medioambiente y las formas en que lo modificamos, generando un fenotipo mucho más amplio. Para Vayena y Gasser, “Capturing and understanding these interactions allows greater understanding of how we function” (2016: 27).
Este enfoque también se conoce como aprendizaje supervisado, puesto que la máquina requiere de cierto refuerzo o ayuda humana para tomar decisiones, por ejemplo, para saber que está bien o mal.
Este enfoque también se conoce como aprendizaje no supervisado, puesto que la máquina requiere de cierto refuerzo o ayuda humana para tomar decisiones, por ejemplo, para saber que está bien o mal.
Para profundizar en los aspectos éticos del neuromarketing ver Conill (2012); Conill y García Marzá (2012); y Feenstra y Pallarés Domínguez (2017).
El concepto datafication fue acuñado por Kenneth Cukier y Viktor Mayer-Schöenberger en Big Data. A Revolution that Will Transform How We Live, Work, and Think (2013: 73-97). Como argumenta Van Dijck, se trata de un término vinculado con “the transformation of social action into online quantified data, thus allowing for real-time tracking and predictive analysis. Businesses and government agencies dig into the exponentially growing piles of metadata collected through social media and communication platforms, such as Facebook, Twitter, LinkedIn, Tumblr, iTunes, Skype, WhatsApp, YouTube, and free e-mail services such as gmail and hotmail, in order to track information on human behavior” (Van Dijck, 2014: 198). De este modo, se entiende la dataficación como “a legitimate means to access, understand and monitor people’s behavior is becoming a leading principle, not just amongst techno-adepts, but also amongst scholars who see datafication as a revolutionary research opportunity to investigate human conduct” (Van Dijck, 2014: 198).
César Hidalgo, Director of MIT’s Collective Learning Group, está presentando y promocionando su propuesta de “Augmented Democracy” alrededor del mundo a través de TEDs y entrevistas en revistas especializadas, como la del MIT Technology Review. Además, recientemente ha lanzado, la web “Augmented Democracy. Exploring the Design Space of Collective Decisions” (https://www.peopledemocracy.com), donde explica su proyecto de democracia algorítmica, cuelga sus TEDs y entrevistas al respecto y lanza convocatorias de premios para recoger ideas sobre cómo diseñar e implementar en la práctica una “Augmented Democracy”.
El concepto fue acuñado por Adam Smith en la Riqueza de las Naciones (1793: 125) para etiquetar a los arquitectos y productores que aplican la máxima de todo para mí, nada para los demás, y que se preocupan ante todo de salvaguardar su estatus y protegerse de la masa a través de la política. No obstante, el concepto ha reducido su fuerza en las sucesivas traducciones. El concepto, que podría traducirse como “Maestros de la humanidad” o “Amos de la humanidad”, fue traducido al español en 1794 y 1806 como “soberbio poderoso” (en singular) y en 2016 como “poderosos” (en plural).
El informe examina el uso de algoritmos en 14 agencias gubernamentales neozelandesas.
Como explica Bautista (2013), “La palabra idiota proviene del griego idiotes, para referirse a aquél que no se ocupaba de los asuntos públicos, sino sólo de sus intereses privados. La raíz idio significa propio. El vocablo idiota también es usado en latín y significa ignorante. Antaño, la conducta individualista era mal vista ya que, en general, el ciudadano poseía un sentido de pertenencia a su comunidad, por lo que se sentía en la disposición moral de participar en lo público” (2013: 16).
Por ejemplo, la pobreza, la violencia ejercida hacia las mujeres o las limitaciones de acceso a Internet que sufren ciertos colectivos de personas discapacitadas o los adultos mayores.
Los mejores docentes despedidos fueron rápidamente contratados por la educación privada.
Los defensores de la Democracia algorítmica confunden el bien común con el interés universal. El bien común representa aquello que es bueno para una comunidad concreta, mientras que el interés universal, tal y como argumenta García Marzá (2004), está relacionado con lo justo, con aquello que es bueno para cualquier persona de cualquier comunidad.
Hoy, la ideología 2.0 de la comunicación en red (Baldi, 2017), se ha convertido en la ideología 4.0 de la conectividad digital.

Similar Articles

You may also start an advanced similarity search for this article.

Most read articles by the same author(s)