ISEGORÍA. Revista de Filosofía moral y política, N.º 67
julio-diciembre 2022, e10
ISSN-L: 1130-2097 | eISSN: 1988-8376
https://doi.org/10.3989/isegoria.2022.67.10

ARTÍCULOS

Inteligencia artificial sostenible y evaluación ética constructiva*Esta investigación cuenta con la financiación del Ministerio de Universidades del Gobierno de España y la Unión Europea (Next Generation EU) en el marco de las Ayudas Margarita Salas para la formación de jóvenes doctores del programa de recualificación del sistema universitario español.

Sustainable artificial intelligence and constructive ethical assessment

Antonio Luis Terrones Rodríguez**Investigador de la Universitat de Valencia y actualmente realiza una estancia de investigación en el Grupo de Ética Aplicada del Instituto de Filosofía del CSIC.

Universitat de Valencia / Instituto de Filosofía-CSIC

https://orcid.org/0000-0002-4015-8537

Resumen

El aumento considerable de la capacidad de la inteligencia artificial (IA) implica un alto consumo de recursos energéticos. La situación ambiental actual, caracterizada por la acuciante degradación de ecosistemas y la ruptura del equilibrio, exige tomar medidas en diversos ámbitos. La IA no puede quedar al margen, y aunque es empleada para objetivos de sostenibilidad, debe plantearse como sostenible en términos integrales. La propuesta de una inteligencia artificial sostenible se argumenta a partir de una evaluación ética constructiva, donde la inclusión y la participación de los grupos de interés representan dos elementos fundamentales.

Palabras clave: 
Inteligencia artificial; ética; sostenibilidad; evaluación tecnológica; democracia.
Abstract

The considerable increase in the capacity of artificial intelligence (AI) implies a high consumption of energy. The current environmental situation, characterized by the pressing degradation of ecosystems and the breakdown of balance, requires measures to be taken in various areas. AI cannot be left out, and although it is used for sustainability objectives, it must be viewed as sustainable in comprehensive terms. The proposal of a sustainable artificial intelligence is argued from a constructive ethical evaluation, where the inclusion and participation of interest groups represent two fundamental elements.

Keywords: 
Artificial intelligence; Ethics; Sustainability; Technological evaluation; Democracy.

Recibido: 30  septiembre  2021. Aceptado: 01  julio  2022.

Cómo citar este artículo/Citation: Terrones Rodríguez, Antonio Luis (2022) “Inteligencia artificial sostenible y evaluación ética constructiva”. Isegoría, 67: e10. https://doi.org/10.3989/isegoria.2022.67.10

CONTENIDO

INTRODUCCIÓN

 

El 20 de septiembre de 2019 los trabajadores de doce importantes empresas tecnológicas se sumaron a la huelga climática global, reivindicando un reconocimiento más notorio del impacto de la tecnología sobre el cambio climático y exigiendo un nuevo rumbo en las políticas públicas. En la actualidad, la industria tecnológica enfrenta importantes críticas por los altos niveles de consumo energético. En el caso específico de la inteligencia artificial (IA), los sistemas más avanzados demandan un mayor procesamiento de datos, una situación que conlleva un elevado coste energético. Además, la falta de transparencia en torno al acceso a la información sobre el consumo estimado de energía de la tecnología, representa un serio obstáculo para la investigación1 Belkhir y Elmeligi, 2018..

La IA ha asumido un merecido protagonismo en la cuarta revolución industrial como resultado del incremento de su presencia en numerosos espacios y actividades. Esto ha ocasionado que diversos campos se encuentren involucrados en el desarrollo de los sistemas artificiales, uno de los principales motivos que dificulta la búsqueda de una definición común. No obstante, a continuación, se ofrece una propuesta que facilita una primera aproximación a este objeto de estudio:

La inteligencia artificial (IA), en una definición amplia y un tanto circular, tiene por objeto el estudio del comportamiento inteligente en las máquinas. A su vez, el comportamiento inteligente supone percibir, razonar, aprender, comunicarse y actuar en entornos completos. Una de las metas a largo plazo de la IA es el desarrollo de máquinas que puedan hacer todas estas cosas igual, o quizá incluso mejor, que los humanos. Otra meta de la IA es llegar a comprender este tipo de comportamiento, sea en las máquinas, en los humanos o en otros animales2 Nilsson, 2001, p.1. .

Antes de concretar el objetivo de las presentes páginas, es oportuno mencionar brevemente las tres modalidades de IA. En primer lugar, se encuentra la IA débil, empleada para la realización de tareas singulares, entre las que pueden encontrarse el reconocimiento óptico, las sugerencias de compra, juegos virtuales, etc. La segunda modalidad alude a la IA fuerte, que indica un tipo de sistema artificial que persigue un nivel más alto de progresión mediante la emulación de las redes neurales del cerebro humano. La tercera modalidad es la más hipotética, pues hace referencia a un intelecto sintético con capacidades muy superiores a las del ser humano que ha trascendido todo soporte biológico.

El objetivo de este trabajo consiste en argumentar la potencial contribución de la IA en materia de sostenibilidad ambiental. Para el cumplimiento de este propósito se analiza el postulado de Aimee van Wynsberghe3 van Wynsberghe, 2021. , destacando los aspectos más relevantes de su concepto de inteligencia artificial sostenible (IAS), y se mencionan los comentarios de Mark Coeckelbergh que giran en torno a la importancia de promover la sostenibilidad. Además, se plantea un marco ético de evaluación constructiva que constituye una apuesta política. El texto se divide en tres secciones: en primer lugar, se introduce el desafío ambiental a partir de una perspectiva tecnológica, haciendo énfasis en los efectos ambientales de la IA; en segundo lugar, se aborda el concepto de IAS, apuntando a la posibilidad de promover una tecnología sostenible en términos integrales; y, en tercer lugar, se propone un modelo de evaluación ética constructiva que sirve para complementar la idea de van Wynsberghe, explorando el valor de la inclusión y la participación de diversos grupos de interés para el fortalecimiento de una ciencia cívica4 Comisión Europea, 2015. en aras de la sostenibilidad.

Este trabajo recoge el testigo de las expectativas proyectadas en el Programa Horizonte 20205 Comisión Europea, 2014. y en el Pacto Verde Europeo6 Comisión Europea, 2019., invitando a una reflexión ética aplicada a los intelectos sintéticos. Además, va un paso más allá de las propuestas que se circunscriben al empleo de la IA para la consecución de los Objetivos de Desarrollo Sostenible (ODS)7 Monasterio Astobiza, 2021; Monasterio Astobiza, Toboso, Aparicio, y López, 2021.. En consecuencia, la IAS se articula sobre la investigación de caminos de sensibilidad que pueden favorecer en el ámbito tecnológico el cultivo del cuidado ambiental y la resiliencia por medio del cultivo y fortalecimiento de habilidades cívicas y democráticas.

EL FLAGELO CLIMÁTICO

 

Es evidente que durante las últimas décadas el proceso de degradación ambiental ha experimentado una aceleración como resultado del incremento de la emisión de gases de efecto invernadero y la destrucción de hábitats naturales, manifestándose en diversos fenómenos como el cambio climático, la contaminación de hábitats, las catástrofes naturales, etc. Estudios científicos de instituciones de reconocido prestigio como Intergovernmental Panel on Climate Change (IPCC)8 Solomon et al., 2007. y declaraciones como las de World Meteorological Organization9 World Meteorological Organization, 2020. alertan sobre la grave situación y simbolizan un llamado de urgencia.

El comienzo del denominado «Antropoceno»10 Crutzen, 2006., considerado como la era geológica actual surgida a tenor de la profunda huella ecológica y geológica generada por los seres humanos, se inicia en los albores de la Revolución Industrial durante el siglo XVIII. Un periodo que encuentra su impulso en la idea de progreso técnico resultante de la Ilustración. La sinergia entre ciencia, tecnología y economía profundizada en la cuarta revolución industrial11 Schwab, 2016., ha ido erigiendo un modelo institucional de desarrollo basado en el crecimiento y el consumo que pone de relieve un desinterés por los límites planetarios y los valores ecológicos.

En 2009 un grupo de destacados científicos planteó la necesidad de promover un espacio de actuación para un desarrollo humano seguro en el planeta que pudiera ser aplicado en cualquier lugar12 Kartha et al., 2009; Steffen et al., 2015, pp. 1286-1287.. Estos científicos alertaron de los significativos riesgos ambientales que experimenta la humanidad a tenor de las implicaciones que presenta la superación de los límites del planeta Tierra. Una situación que está agravándose debido a un modelo de desarrollo sostenido sobre la convergencia entre tecnologías digitales, físicas y biológicas que transforman el mundo y donde destaca especialmente la IA.

Deloitte, una empresa privada que ofrece servicios de auditoría, llevó a cabo una serie de encuestas a ejecutivos de diversas organizaciones y países para obtener información sobre el proceso de integración de la IA en sus actividades13 Ammanath, Jarvis y Hupfer, 2020.. Su estudio destaca que alrededor del 70 % de las organizaciones encuestadas, manifiestan la intención de aumentar el gasto en IA en los próximos años. Este aumento se debe a los beneficios que esta tecnología reporta en el sector público y privado en materia de eficiencia y soporte para la realización de actividades que destacan por un alto nivel de complejidad. No obstante, el empleo de IA conlleva un coste considerable, en lo que respecta al gasto energético y la demanda de una gran potencia de procesamiento, que se traduce en un aumento de la huella de carbono. Anders Andrae, un investigador especializado en la evaluación de la sostenibilidad de las tecnologías de la información y la comunicación (TIC), advierte de los riesgos derivados de un escenario con niveles significativos de consumo energético en torno a la necesidad de un mayor esfuerzo para el ahorro de energía y la innovación14 Andrae, 2020.. Por ejemplo, el funcionamiento de los algoritmos de plataformas como Netflix, Facebook o Amazon depende en gran medida de un elevado consumo de energía que procede en menos de un 22 % de fuentes renovables15 Greenpeace, 2017. . En este sentido, la IA es una tecnología controvertida, pues por un lado contribuye a reducir los efectos de la crisis climática16 Rolnick et al., 2019. , con herramientas como Conservation Metrics o AI for Eartch17 Microsoft, 2018. ; y, por otro lado, genera emisiones de CO2, ya que se calcula que el Machine Learning tiene una huella ecológica equivalente a la producida por un coche durante su vida útil18 ITU-International Telecommunication Union, 2020.. Vincent Mosco ha destacado este carácter controvertido haciendo referencia a la metáfora de «la nube», un recurso digital empleado para la gestión y procesamiento de datos que presenta una apariencia inmaterial, aunque depende de unas realidades físicas que son objeto de continua explotación, como la extracción de minerales de la corteza terrestre19 Mosco, 2014..

El principal desafío que debe afrontar la IAS consiste en la búsqueda de un equilibrio entre los beneficios y los impactos ambientales. Por este motivo resulta imprescindible llevar a cabo un profundo ejercicio reflexivo que contribuya a una valoración de las implicaciones ambientales de la IA, con el propósito de cuantificar los costes que tienen sus emisiones y transitar de una Red AI hacia una Green AI20 Schwartz, Dodge, Smith, y Etzioni, O., 2019. . La investigadora Kate Crawford y el investigador Vladan Joler han asumido este compromiso reflexivo al detallar el impacto de Echo, un dispositivo de Amazon, a escala global, en términos de trabajo humano, datos y recursos empleados durante su vida útil, desde la fabricación hasta la eliminación21 Crawford y Joler, V., 2018. . Otro estudio llevado a cabo por investigadores de la Universidad de Massachusetts Amherst revela el vínculo existente entre el desarrollo de un gran modelo de IA para manejar el lenguaje humano y la emisión de CO2, aproximadamente cinco veces superior a las de un automóvil promedio en Estados Unidos22 Strubell, Ganesh y McCallum, 2019, p. 1. :

Consumption CO2e (lbs)
Air travle, 1 passenger, NY↔SF 1984
Human life, avg, 1 year 11,023
America life, avg, 1 year 36,156
Car, avg incl. fuel, 1 lifetime 126,000
Training one model (GP)
NLP pipline (parsing, SRL) 39
w/tuning & experimentation 78,468
Transformer (big) 192
w/neural architecture search 626,155

De un modo similar, Alexandre Lacoste et al. contribuyen en la respuesta al llamado de la necesidad de un equilibrio. Con su calculadora de emisiones facilitan la estimación del coste energético y el impacto ambiental, ofreciendo a la investigación una herramienta más para el desempeño de su trabajo:

Los factores que discutimos en el trabajo actual les dan a los practicantes de Machine Learning una cierta cantidad de control sobre el impacto ambiental que produce la formación de sus modelos. Somos conscientes de que estos, en la práctica, no siempre son posibles; por ejemplo, la elección de la ubicación del servidor puede estar limitada, debido a consideraciones de privacidad en el caso de aplicaciones en el dominio médico o financiero, y es posible que se necesiten grandes cantidades de datos para producir modelos más sólidos. Sin embargo, encontramos que nuestra calculadora de emisiones es un buen punto de partida para estimar el impacto que las pequeñas elecciones en el modelo la capacitación pueden tener sobre las emisiones directas de carbono resultantes de la investigación de Machine Learning […] No proponemos la solución a este problema, pero creemos que hay pasos que se deben tomar, por ejemplo, utilizando la eficiencia como criterio de evaluación o tomando medidas concretas para reducir las emisiones.23 Lacoste, Luccione, Schmidt y Dandres, 2019, p. 4.

Finalmente, es importante mencionar el rastreador de carbono Carbontracker24 Wolff Anthony, Kanding y Selvan, 2020. como otra de las propuestas encaminadas a la concienciación y el conocimiento de los efectos negativos del Deep Learning.

Una vez mencionados algunos ejemplos, es fundamental promover la defensa del diseño de estrategias éticas y políticas concretas para la reducción del impacto ambiental en aras de la sostenibilidad. Hay que alentar a la comunidad de la IA para la toma de conciencia y consideración de los efectos inesperados y ambivalentes que presenta la tecnología moderna25 Jonas, 2004.. La huella ecológica podría variar enormemente en función del diseño del algoritmo, el tipo de hardware y la naturaleza de la generación de la energía empleada26 Patterson et al., 2021.. Así pues, la articulación de una IAS constituye un importante desafío para los expertos de los sistemas artificiales, pues requiere un arduo trabajo de reflexividad ética que puede originarse en el seno de un modelo de evaluación constructiva que incorpore la inclusión, la participación y la sostenibilidad como elementos fundamentales de una transición verde27 Comisión Europea, 2019..

IA SOSTENIBLE

 

La IA es objeto de importantes debates de diversa índole en la actualidad. La ética es una de las tantas disciplinas que ha dirigido su mirada hacia la IA como un objeto de estudio problemático, principalmente a través de dos caminos28 van Wynsberghe, 2021.. El primero se caracteriza por pensar las posibilidades de los intelectos sintéticos, una opción que ha estimulado curiosas elucubraciones29 Bostrom y Yudkowsky, 2011.; mientras que, el segundo, surge a partir de diversas preocupaciones como la gobernanza30 González Esteban y Calvo, 2022; Terrones Rodríguez, 2020. , la explicabilidad31 Robbins, 2019., los sesgos algorítmicos32 Skeem y Lowenkamp, 2016., el reconocimiento facial, las emociones y la protección de datos33 Almeida, Shmarko y Lomas, 2021; Berberich, Nishida y Suzuki, 2020; Kazim y Koshiyama, 2021. y la agencia moral34 Allen, Smith y Wallach, 2005; Gunkel y Bryson, 2014., entre otras.

En este escenario de múltiples problemáticas y controversias, van Wynsbergue considera que es el momento de comenzar un nuevo tiempo reflexivo en la ética de la IA para abordar el desafío del cuidado ambiental. La eticista da forma al concepto IAS con el objetivo de apuntar a un sistema artificial que no se limita únicamente a su empleo para el alcance de los ODS, a diferencia de lo que se promueve en la plataforma AI4Good35 Floridi et al., 2018.. En cambio, valora la posibilidad de introducir la sostenibilidad en el interior del ciclo de vida de la IA, desde su diseño, formación, desarrollo, validación, reajuste e implementación36 van Wynsberghe, 2021, p. 14..

En el intento de ir más allá de una IA para la sostenibilidad y proponer una IAS más significativa e integral, se precisan dos aclaraciones en torno al concepto de sostenibilidad. Por un lado, Hannah Stoddart et al.37 Stoddart et al., 2011. definen la sostenibilidad como la distribución eficiente y equitativa de recursos intrageneracional e intergeneracionalmente en un ecosistema finito. Y, por otro lado, Michael Ben-Eli38 Ben-Eli,2015., entiende la sostenibilidad como un equilibrio dinámico en el proceso de interacción entre la población y la capacidad de carga de su entorno. En este sentido, la IAS adquiere su significado en la tensión existente entre la innovación orientada a los ODS y la formación e implementación de esta tecnología dentro de parámetros sostenibles39 van Wynsberghe, 2021, p. 216..

Van Wynsbergue encuentra en la reorientación o resignificación de los modelos de IA un hallazgo crucial para el cultivo de la sostenibilidad. Recupera el estudio de Strubbel et al.40 Strubell, Ganesh, y McCallum, 2019., donde se analiza el coste de oportunidad del NPL (siglas en inglés de Natural Language Processing) para señalar el acierto de la posible supresión de determinadas actividades de IA que en la actualidad ocasionan una carga ética inevitable. El motivo principal radica en unos costes ambientales que son injustificadamente superiores a los beneficios que reporta el empleo de IA en términos de eficiencia41 van Wynsberghe, 2021, p. 216.. En este sentido, la alemana apunta en tres direcciones para dar forma a una IA sostenible42 Ibíd., p. 217.. En primer lugar, concreta que es importante reconocer el carácter experimental de la IA en su implementación en la sociedad, lo que conduce a identificar la ética como un imperativo para establecer mecanismos de protección. En segundo lugar, diagnostica la necesidad de grupos de trabajo gubernamentales que se encarguen de la medición de los impactos ambientales de la IA. Este punto incluiría un compromiso por parte del sector público y privado en el suministro de informes de emisiones y también financiación a las PYMES (pequeñas y medianas empresas) para impulsar la innovación sostenible. En tercer lugar, puntualiza que deberían crearse marcos regulatorios para evaluar la huella ecológica.

En la senda de las expectativas de una IAS se sitúa también Mark Coeckelbergh. El filósofo belga defiende que la agenda podría comenzar promoviendo una conciencia ética entre los usuarios de la IA. Esta propuesta estaría acompañada de una mayor investigación orientada a un ecosistema y materiales más sostenibles43 Coeckelbergh, 2021, p. 69. . Concretamente, Coeckelbergh menciona que un buen punto de partida consistirá en que los profesionales de la ciencia de datos y la IA reconocieran en el uso de la energía un valor ético relevante44 Ibíd..

Las tres direcciones planteadas por van Wynsbergue y la concienciación que sugiere Coeckelbergh, representan dos opciones fundamentales para el debate en torno a la necesidad de una IAS. No obstante, es conveniente proponer una estrategia ética y política concreta centrada en la evaluación que permita la puesta en valor de la inclusión y la participación de diversos actores como un mecanismo de fortalecimiento de habilidades cívicas y democráticas en favor de la sostenibilidad.

EVALUACIÓN ÉTICA CONSTRUCTIVA

 

La evaluación tecnológica (TA, siglas en inglés de Technology Assessment) nació en la década de los sesenta como una herramienta para el asesoramiento político a tenor de los efectos inesperados del avance científico y tecnológico que motivaron la urgencia de una orientación para la elaboración de diagnósticos45 Bimber, 1996.. Entre las causas que detonaron este campo de estudio se encuentran las siguientes:

  • La preocupación surgida a tenor de la expansión de la tecnocracia.

  • Los conflictos y el déficit de legitimidad acontecidos tras determinadas experiencias tecnológicas.

  • La correspondencia entre la configuración de la tecnología y los valores sociales.

  • Temas de innovación.

  • Cambios en la comunicación sobre las emergentes tecnociencias46 Grunwald, 2014, p. 19. .

La TA se caracteriza por la interdisciplinariedad y el asesoramiento científico. Tiene como principal objetivo proporcionar conocimientos y orientar en la toma de decisiones, ofreciendo información y valorando consecuencias de diversa índole. La TA enriquece la gobernanza de la tecnología al considerar sus efectos, incorporando valores sociales y principios éticos47 Grunwald, 2014..

Durante las últimas décadas diversos grupos de la sociedad civil han mostrado un interés creciente por la participación en la gobernanza de la tecnología. Un interés que sitúa su origen en la consideración de la tecnología desde la óptica del constructivismo social48 Bijker, Hughes y Pinch, 1987. y estimula el surgimiento de la evaluación constructiva de la tecnología (CTA, siglas en inglés de Constructive Technology Assessment) en la década de los ochenta49 Schot y Rip, 1997; Rip, van del Belt y Schwarz, 1987; Rip, Misa y Schot, 1995.. Se posiciona un paso más allá de la TA, evitando dirigir la mirada únicamente a la evaluación de los impactos de la tecnología y movilizando conocimientos entrelazados sobre la dinámica coevolutiva de la ciencia, la tecnología y la sociedad. En la estela de esta propuesta coevolutiva, la IA debe ser concebida como un sistema sociotécnico50 Sartori y Theodorou, 2022., surtido de componentes técnicos y elementos sociales que dan forma a escenarios condicionados por numerosas complejidades. Kornelia Konrad et al.51 Konrad, Rip y Schulze Greiving, 2017. señalan que estos escenarios sociotécnicos representan un insumo para la evaluación de los grupos de interés. Escenarios que destacan por el análisis de la actualidad del desarrollo tecnológico y las expectativas de futuro, la exploración de diversas direcciones y la valoración de los posibles mecanismos de gobernanza que pueden incorporarse, considerando las interrelaciones entre grupos de interés.

La propuesta de la CTA responde a la necesidad de ofrecer un impulso pragmático a la IAS, conectando teoría con praxis, desafiando los límites del análisis académico para formar parte de prácticas y políticas reales de cambio con el propósito de brindar mejoras a la tecnología en el terreno ambiental. Un planteamiento que demanda el fortalecimiento de la dimensión política de la IA, subrayando la participación de diversos grupos de interés y el encuentro con otros saberes. Su objetivo consiste en el cultivo de la reflexividad y la constructividad por medio de una metodología de inclusión de agentes de cambio52 Rip y Robinson, 2013, p. 47.. Y presume de una sensibilidad metodológica que responde al carácter democrático de la evaluación, del mismo modo que la importancia asignada a la participación53 Grunwald, 2019., en la línea del modelo habermasiano de una relación pragmática entre ciencia y política54 Hennen, 2012.. Así pues, la inclusión y participación de diversos actores en el desarrollo tecnológico consolidan los procesos de legitimación política de un modo equilibrado, sin implicar un descuido en la búsqueda de eficiencia en favor de una correcta evaluación55 Abels y Bora, 2016. .

El fundamento constructivo de la CTA aporta a la propuesta de una IAS la participación política como insumo de cultura deliberativa, una práctica para mejorar la calidad de los productos por medio de la alineación entre la aceptabilidad y la deseabilidad, una oportunidad para la consideración de la IAS como un asunto de interés público y un acercamiento de la ciencia a la ciudadanía. En definitiva, la evaluación constructiva representa una opción pragmática para el fomento de la sostenibilidad en el entorno de los intelectos sintéticos.

CONCLUSIÓN

 

El desafío ambiental constituye un llamado de urgencia para orientar la investigación e innovación tecnológica hacia un compromiso con la sostenibilidad. El campo de la IA no debe evadir la responsabilidad de articular un desarrollo sostenible en términos integrales. Como ha podido constatarse en la segunda parte de este trabajo, van Wynsbergue y Coeckelbergh han mostrado un gran interés en la inauguración de una nueva senda reflexiva en el ámbito de la ética aplicada a la IA. Por esa razón, en las presentes páginas se ha procurado iniciar ese camino mediante la formulación de una propuesta concreta basada en la evaluación ética constructiva.

La evaluación constructiva es la punta de lanza que proporciona un fundamento para una ética aplicada a la IAS. A partir de esta propuesta se abre una nueva ventana de oportunidad para seguir explorando mecanismos teóricos y prácticos que estén al servicio de su fortalecimiento. Quizás, una de las opciones que brinda la oportunidad de seguir explorando este objeto de estudio, es el modelo de investigación e innovación responsable (RRI, por sus siglas en inglés Responsible Research and Innovation), que fomenta la anticipación, la reflexión, la inclusión y la sensibilidad, dimensiones esenciales para el actual tiempo digital.

En definitiva, este trabajo ha servido para continuar la senda iniciada por van Wynsbergue y complementar su propuesta con una evaluación ética de la tecnología que estimula el cultivo y fortalecimiento de habilidades cívicas y democráticas en favor del compromiso con la sostenibilidad ambiental. Pues, como señala Jussi Parikka, ha llegado el momento de superar la concepción de los medios como extensiones de los sentidos humanos y pasar a considerarlos como extensiones de la Tierra56 Parikka, 2015..

NOTAS

 
*

Esta investigación cuenta con la financiación del Ministerio de Universidades del Gobierno de España y la Unión Europea (Next Generation EU) en el marco de las Ayudas Margarita Salas para la formación de jóvenes doctores del programa de recualificación del sistema universitario español.

**

Investigador de la Universitat de Valencia y actualmente realiza una estancia de investigación en el Grupo de Ética Aplicada del Instituto de Filosofía del CSIC.

1

Belkhir y Elmeligi, 2018Belkhir, L. y Elmeligi, A., “Assessing ICT global emissions footprint: Trends to 2040 & recommendations”, Journal of Cleaner Production, 177, 2018 (pp. 448-463). https://doi.org/10.1016/j.jclepro.2017.12.239 .

2

Nilsson, 2001, p.1Nilsson J. N., Inteligencia artificial: una nueva síntesis. Madrid: McGraw-Hill, 2001..

3

van Wynsberghe, 2021Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6 .

4

Comisión Europea, 2015Comisión Europea, Horizon 2020. El Programa Marco de Investigación e Innovación de la Unión Europea, Luxemburgo, Oficina de Publicaciones de la Unión Europea, 2014. https://ec.europa.eu/programmes/horizon2020/sites/horizon2020/files/H2020_ES_KI0213413ESN.pdf .

5

Comisión Europea, 2014Comisión Europea, White Paper on Citizen Science in Europe, 2015. https://ec.europa.eu/futurium/en/system/files/ged/socientize_white_paper_on_citizen_science.pdf .

6

Comisión Europea, 2019Comisión Europea, Un Pacto Verde Europeo, 2019. https://eur-lex.europa.eu/legal-content/ESTXT/?qid=1576150542719&uri=COM%3A2019%3A640%3AFIN .

7

Monasterio Astobiza, 2021Monasterio Astobiza, A., “Inteligencia Artificial para el bien común (AI4SG): IA y los Objetivos de Desarrollo Sostenible”, Arbor, 197(802), 2021 (pp. 1-19). https://doi.org/10.3989/arbor.2021.802007 ; Monasterio Astobiza, Toboso, Aparicio, y López, 2021Monasterio Astobiza, A., Toboso, M., Aparicio, M. y López, D., “AI Ethics for Sustainable Development Goals”, IEEE Technology and Society Magazine, 40(2), 2021 (pp. 66-71)..

8

Solomon et al., 2007Solomon, S., D. Quin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor y H.L. Miller, Climate Change 2007 - The Physical Science Basis, Cambridge, United Kingdom and New York, NY, USA, Cambridge University Press, 2007. .

9

World Meteorological Organization, 2020World Meteorological Organization, WHO Statement on the State of the Global Climate in 2019, 2020. https://library.wmo.int/index.php?lvl=notice_display&id=21704#.YQe0Po4zZPY .

10

Crutzen, 2006Crutzen, P. J., “The ‘Anthropocen’”, en Ehlers, E. y Krafft, T., Earth System science in the anthropocene, Berlin, Springer, 2006 (pp. 13-18)..

11

Schwab, 2016Schwab, K., La cuarta revolución industrial. Barcelona: Debate, 2016..

12

Kartha et al., 2009Kartha, S.; Siebert, C.K; Mathur, R.; Nakicenovic, N.; Ramanathan, V.; Rockström, J.; Schellnhuber, H.J; Srivastava, L.; Watt, R., A Copenhagen Prognosis: Towards a safe climate future. Report by the Potsdam Institute for Climate Impact Research, Sto-ckholm Environment Institute, and The Energy and Resources Institute, 2009. https://mediamanager.sei.org/documents/Publications/Climate-mitigation-adaptation/a20copenhagen20prognosis.pdf ; Steffen et al., 2015, pp. 1286-1287Steffen, W., Richardson, K., Rockström, J., Cornell, S. E., Fetzer, I., Bennett, E. M., Biggs, R., Carpenter, S. T., de Vries, W., de Wit, C. A., Foke, C., Gerten, D., Heinke, J., Mace, G. M., Persson, L. M., Ramanathan, V., Reyers, B. y Sörlin, S., “Planetary boundaries: Guiding human development on a changing planet”, Science, 349(6254), 2015 (pp. 1286-1287). https://doi.org/10.1126/science.1259855 .

13

Ammanath, Jarvis y Hupfer, 2020Ammanath, B., Jarvis, D. y Hupfer, S., “Thriving in the era of pervasive AI”, Deloitte, 2020. https://www2.deloitte.com/xe/en/insights/focus/cognitive-technologies/state-of-ai-and-intelligent-automation-in-business-survey0.html .

14

Andrae, 2020Andrae, A. S. G., “Hypotheses for Primary Energy Use, Electricity Use and CΟ2 Emissions of Global Computing and Its Shares of the Total Between 2020 and 2030”, WSEAS Transactions on Power Systems, 15, 2020 (pp. 50-59). https://doi.org/10.37394/232016.2020.15.6 Andrae, A. S. G., “New perspectives on Internet electricity use in 2030”, Engineering and Applied Science Letters, 3(2), 2020 (pp. 19-31)..

15

Greenpeace, 2017Greenpeace, Clicking Clean: Who is Winning the Race to Build a Green Internet, 2017. http://www.clickclean.org/ .

16

Rolnick et al., 2019Rolnick, D., Donti, P. L., Haack, L. H., Kochanski, K., Lacoste, A., Sankaran, K., Slavin Ross, A., Milojevic-Dupont, N., Jaques, N., Waldman-Brown, Luccioni, A., Maharaj, T., Sherwin, E. D., Mukkavilli, K., Kording, K. P., Gomes, C., Ng, A. Y., Hassabis, D., Platt, J. C., Creutzig, F., Chayes, J. y Bengio, Y., Tackling Climate Change with Machine Learning, 2019. https://arxiv.org/abs/1906.05433 .

17

Microsoft, 2018Microsoft, AI for Earth, 2018. https://www.microsoft.com/en-us/ai/ai-for-earth .

18

ITU-International Telecommunication Union, 2020ITU-International Telecommunication Union, Frontier technologies to protect the environment and tackle climate change, 2020. https://www.itu.int/en/action/environment-and-climate-change/Documents/frontier-technologies-to-protect-the-environment-and-tackle-climate-change.pdf..

19

Mosco, 2014Mosco, V., To the Cloud: Big Data in a Turbulent World, Boulder, Paradigm, 2014..

20

Schwartz, Dodge, Smith, y Etzioni, O., 2019Schwartz, R., Dodge, J., Smith, N. A. y Etzioni, O., Green AI, 2019. https://arxiv.org/abs/1907.10597 .

21

Crawford y Joler, V., 2018Crawford, K. y Joler, V., Anatomy of an AI System. The Amazon Echo as an anatomical map of human labor, data and planetary resources, 2018. https://anatomyof.ai/index.html .

22

Strubell, Ganesh y McCallum, 2019, p. 1Strubell, E., Ganesh, A. y McCallum A., “Energy and Policy Considerations for Deep Learning in NLP”, in 57th Annual Meeting of the Association for Computational Linguistics (ACL). Florence, Italy. July 2019. https://arxiv.org/abs/1906.02243v1 .

23

Lacoste, Luccione, Schmidt y Dandres, 2019, p. 4Lacoste, A., Luccione, A., Schmidt, V. y Dandres, T., Quantifying the Carbon Emisions of Machine Learning, 2019. https://arxiv.org/abs/1910.09700v2 .

24

Wolff Anthony, Kanding y Selvan, 2020Wolff Anthony, L. F., Kanding, B. y Selvan, R., “Carbontracker: Tracking and Predicting the Carbon Footprint of Training Deep Learning Models”, Challenges in Deploying and monitoring Machine Learning Systems, 2020. https://arxiv.org/abs/2007.03051 .

25

Jonas, 2004Jonas, H. El principio de responsabilidad: ensayo de una ética para la civilización tecnológica. Barcelona, Herder Editorial, 2004..

26

Patterson et al., 2021Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M. y Dean, J., Carbon Emissions and Large Neural Network Training, 2021. https://arxiv.org/abs/2104.10350 .

27

Comisión Europea, 2019Comisión Europea, Un Pacto Verde Europeo, 2019. https://eur-lex.europa.eu/legal-content/ESTXT/?qid=1576150542719&uri=COM%3A2019%3A640%3AFIN .

28

van Wynsberghe, 2021Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6 .

29

Bostrom y Yudkowsky, 2011Bostrom, N y Yudkowsky, E., “The Ethics of Artificial Intelligence”, en Ramsey W. y Frankish, Cambridge Hankbook of Artificial Intelligence, Cambridge, England, Cambridge University Press, 2011 (pp. 316-334)..

30

González Esteban y Calvo, 2022González Esteban, E. y Calvo, P., “Ethically governing artificial intelligence in the field of scientific research and innovation”, Heliyon, 8(2), 2022 (pp. 1-9). https://doi.org/10.1016/j.heliyon.2022.e08946 ; Terrones Rodríguez, 2020Terrones Rodríguez, A. L., “Inteligencia artificial, responsabilidad y compromiso cívico y democrático”, Revista Iberoamericana de Ciencia, Tecnología y Sociedad, 44(15), 2020 (pp. 253-276)..

31

Robbins, 2019Robbins, S., “A Misdirected Principle with a Catch: Explicability for AI”, Minds and Machines, 29, 2019 (pp. 495-514). https://doi.org/10.1007/s11023-019-09509-3 .

32

Skeem y Lowenkamp, 2016Skeem, J. L. y Lowenkamp Ch., “Risk, Race, and Recidivism. Predictive Bias and Disparate Impact”, Criminology, 54(4), 2016 (pp. 680-712). https://doi.org/10.1111/1745-9125.12123 .

33

Almeida, Shmarko y Lomas, 2021Almeida, D., Shmarko, K. y Lomas, E., “The ethics of facial recognition technologies, surveillance, and accountability in an age of artificial intelligence: a comparative analysis of US, EU, and UK regulatory frameworks”, AI and Ethics, 2(3), 2021 (pp. 377-387). https://doi.org/10.1007/s43681-021-00077-w ; Berberich, Nishida y Suzuki, 2020Berberich, N., Nishida, T. y Suzuki, S., “Harmonizing Artificial Intelligence for Social Good”, Philosophy & Technology, 33, 2020 (pp. 613-638). https://doi.org/10.1007/s13347-020-00421-8 ; Kazim y Koshiyama, 2021Kazim, E. y Koshiyama, A., “The interrelation between data and AI ethics in the context of impact assessments”, AI and Ethics, 1, 2021 (pp. 219-225). https://doi.org/10.1007/s43681-020-00029-w .

34

Allen, Smith y Wallach, 2005Allen, C., Smith, I. y Wallach, W., “Artificial morality: Top-down, bottom-up, and hybrid approaches”, Ethics and Information Technology, 7, 2005 (pp. 149-155). https://doi.org/10.1007/s10676-006-0004-4 ; Gunkel y Bryson, 2014Gunkel, D. J. y Bryson, J. “Introduction to the Special Issue on Machine Morality: The Machine as Moral Agent and Patient”, Philosophy & Technology, 27, 2014 (pp. 5-8). https://doi.org/10.1007/s13347-014-0151-1 .

35

Floridi et al., 2018Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P. y Vayena, E., “AI4People -An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations”, Minds and Machines, 28, 2018 (pp. 689-707). https://doi.org/10.1007/s11023-018-9482-5 .

36

van Wynsberghe, 2021, p. 14Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6 .

37

Stoddart et al., 2011Stoddart, H., Schneeberger, K., Dodds, F., Shaw, A., Bottero, M., Cornforth, J. y White, R., “A pocket guide to sustainable development governance”, Stakeholder Forum 2011, 2011. .

38

Ben-Eli,2015Ben-Eli, M, Sustainability: Definition and five core principles. A New Framework, New York: The Sustainability Laboratory, 2015. http://www.sustainabilitylabs.org/assets/img/SL5CorePrinciples.pdf .

39

van Wynsberghe, 2021, p. 216Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6 .

40

Strubell, Ganesh, y McCallum, 2019Strubell, E., Ganesh, A. y McCallum A., “Energy and Policy Considerations for Deep Learning in NLP”, in 57th Annual Meeting of the Association for Computational Linguistics (ACL). Florence, Italy. July 2019. https://arxiv.org/abs/1906.02243v1 .

41

van Wynsberghe, 2021, p. 216Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6 .

42

Ibíd., p. 217Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6 .

43

Coeckelbergh, 2021, p. 69Coeckelbergh, M., “AI for climate: freedom, justice, and other ethical and political challenges”, AI and Ethics, 1, 2021 (pp. 67-72). https://doi.org/10.1007/s43681-020-00007-2 .

44

IbídCoeckelbergh, M., “AI for climate: freedom, justice, and other ethical and political challenges”, AI and Ethics, 1, 2021 (pp. 67-72). https://doi.org/10.1007/s43681-020-00007-2 .

45

Bimber, 1996Bimber, B. A., The politics of expertise in congress: The rise and fall of the office of technology assessment, Albany: State University of New York Press, 1996..

46

Grunwald, 2014, p. 19Grunwald, A., “Technology Assessment for Responsible Innovation”, en van den Hoven, J., Doorn, N., Swierstra, T., Koops, B.-J. y Jomijn, H., Responsible Innovation 1: Innovate Solutions for Global Issues, New York, United States: Springer, 2014 (pp. 15-31). .

47

Grunwald, 2014Grunwald, A., “Technology Assessment for Responsible Innovation”, en van den Hoven, J., Doorn, N., Swierstra, T., Koops, B.-J. y Jomijn, H., Responsible Innovation 1: Innovate Solutions for Global Issues, New York, United States: Springer, 2014 (pp. 15-31). .

48

Bijker, Hughes y Pinch, 1987Bijker, W., Hughes, T. y Pinch T., The Social Construction of Technological Systems. New Directions in the Sociology and History of Technolocial Systems, Cambridge, MA, MIT Press, 1987..

49

Schot y Rip, 1997Schot, J. y Rip, A., “The Past and Future of Constructive Technology Assessment”, Technological Forecasting and Social Change, 54, 1997 (pp. 251-268). https://doi.org/10.1016/s0040-1625(96)00180-1 ; Rip, van del Belt y Schwarz, 1987Rip, A., van del Belt, H. y Schwarz, M., “Theoretische Analyses”, en Daey Ouwens, C., van Hoogstraten, P., Jelsma, J., Prakke, F. and Rip, A., Constructief Technologisch Aspectenonderzoek, Een Verkenning, Den Haag, Staatsuitgeverij, 1987 (pp. 14-29); Rip, Misa y Schot, 1995Rip. A., Misa, T. y Schot, J., Managing Technology in Society. The Approach of Constructive Technology Assessment, London: Thomson Learning, 1995..

50

Sartori y Theodorou, 2022Sartori, L. y Theodorou, A., “A sociotechnical perspective for the future of AI: narratives, inequalities, and human control”, Ethics and Information Technology, 24(4), 2022 (pp. 1-11). https://doi.org/10.1007/s10676-022-09624-3 .

51

Konrad, Rip y Schulze Greiving, 2017Konrad, K., Rip, A. y Schulze Greiving, V“Constructive Technology Assessment-STS for and with Technology Actors”, EASST Review, 36(3), 2017. https://easst.net/article/constructive-technology-assessment-sts-for-and-with-technology-actors/ .

52

Rip y Robinson, 2013, p. 47Rip, A. y Robinson, D. R. R., “Constructive Technology Assessment and the Methodology of Insertion”, en Neelke, D., Daan, S., Ibo, P. y Michael E. G., Early engagement and new technologies: Opening up the laboratory, Springer, 2013 (pp. 37-53)..

53

Grunwald, 2019Grunwald, A., “The inherently democratic nature of technology assessment”, Science and Public Policy, 46(5), 2019 (pp. 702-709). https://doi.org/10.1093/scipol/scz023 .

54

Hennen, 2012Hennen, L., “Why do we still need participatory technology assessment?”, Poiesis Prax, 9, 2012 (pp. 27-41). https://doi.org/10.1007/s10202-012-0122-5 .

55

Abels y Bora, 2016Abels, G. y Bora, A., “Ethics and Public Participation in Technology Assessment”, [Inédito], 2016. https://pub.uni-bielefeld.de/record/2905695 .

56

Parikka, 2015Parikka, J., A Geology of Media, Minneapolis, University Of Minnesota Press, 2015..

BIBLIOGRAFÍA

 

Abels, G. y Bora, A., “Ethics and Public Participation in Technology Assessment”, [Inédito], 2016. https://pub.uni-bielefeld.de/record/2905695

Ammanath, B., Jarvis, D. y Hupfer, S., “Thriving in the era of pervasive AI”, Deloitte, 2020. https://www2.deloitte.com/xe/en/insights/focus/cognitive-technologies/state-of-ai-and-intelligent-automation-in-business-survey0.html

Andrae, A. S. G., “Hypotheses for Primary Energy Use, Electricity Use and CΟ2 Emissions of Global Computing and Its Shares of the Total Between 2020 and 2030”, WSEAS Transactions on Power Systems, 15, 2020 (pp. 50-59). https://doi.org/10.37394/232016.2020.15.6

Andrae, A. S. G., “New perspectives on Internet electricity use in 2030”, Engineering and Applied Science Letters, 3(2), 2020 (pp. 19-31).

Allen, C., Smith, I. y Wallach, W., “Artificial morality: Top-down, bottom-up, and hybrid approaches”, Ethics and Information Technology, 7, 2005 (pp. 149-155). https://doi.org/10.1007/s10676-006-0004-4

Almeida, D., Shmarko, K. y Lomas, E., “The ethics of facial recognition technologies, surveillance, and accountability in an age of artificial intelligence: a comparative analysis of US, EU, and UK regulatory frameworks”, AI and Ethics, 2(3), 2021 (pp. 377-387). https://doi.org/10.1007/s43681-021-00077-w

Ben-Eli, M, Sustainability: Definition and five core principles. A New Framework, New York: The Sustainability Laboratory, 2015. http://www.sustainabilitylabs.org/assets/img/SL5CorePrinciples.pdf

Belkhir, L. y Elmeligi, A., “Assessing ICT global emissions footprint: Trends to 2040 & recommendations”, Journal of Cleaner Production, 177, 2018 (pp. 448-463). https://doi.org/10.1016/j.jclepro.2017.12.239

Berberich, N., Nishida, T. y Suzuki, S., “Harmonizing Artificial Intelligence for Social Good”, Philosophy & Technology, 33, 2020 (pp. 613-638). https://doi.org/10.1007/s13347-020-00421-8

Bijker, W., Hughes, T. y Pinch T., The Social Construction of Technological Systems. New Directions in the Sociology and History of Technolocial Systems, Cambridge, MA, MIT Press, 1987.

Bimber, B. A., The politics of expertise in congress: The rise and fall of the office of technology assessment, Albany: State University of New York Press, 1996.

Bostrom, N y Yudkowsky, E., “The Ethics of Artificial Intelligence”, en Ramsey W. y Frankish, Cambridge Hankbook of Artificial Intelligence, Cambridge, England, Cambridge University Press, 2011 (pp. 316-334).

Coeckelbergh, M., “AI for climate: freedom, justice, and other ethical and political challenges”, AI and Ethics, 1, 2021 (pp. 67-72). https://doi.org/10.1007/s43681-020-00007-2

Comisión Europea, Horizon 2020. El Programa Marco de Investigación e Innovación de la Unión Europea, Luxemburgo, Oficina de Publicaciones de la Unión Europea, 2014. https://ec.europa.eu/programmes/horizon2020/sites/horizon2020/files/H2020_ES_KI0213413ESN.pdf

Comisión Europea, White Paper on Citizen Science in Europe, 2015. https://ec.europa.eu/futurium/en/system/files/ged/socientize_white_paper_on_citizen_science.pdf

Comisión Europea, Un Pacto Verde Europeo, 2019. https://eur-lex.europa.eu/legal-content/ESTXT/?qid=1576150542719&uri=COM%3A2019%3A640%3AFIN

Crawford, K. y Joler, V., Anatomy of an AI System. The Amazon Echo as an anatomical map of human labor, data and planetary resources, 2018. https://anatomyof.ai/index.html

Crutzen, P. J., “The ‘Anthropocen’”, en Ehlers, E. y Krafft, T., Earth System science in the anthropocene, Berlin, Springer, 2006 (pp. 13-18).

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P. y Vayena, E., “AI4People -An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations”, Minds and Machines, 28, 2018 (pp. 689-707). https://doi.org/10.1007/s11023-018-9482-5

González Esteban, E. y Calvo, P., “Ethically governing artificial intelligence in the field of scientific research and innovation”, Heliyon, 8(2), 2022 (pp. 1-9). https://doi.org/10.1016/j.heliyon.2022.e08946

Greenpeace, Clicking Clean: Who is Winning the Race to Build a Green Internet, 2017. http://www.clickclean.org/

Grunwald, A., “Technology Assessment for Responsible Innovation”, en van den Hoven, J., Doorn, N., Swierstra, T., Koops, B.-J. y Jomijn, H., Responsible Innovation 1: Innovate Solutions for Global Issues, New York, United States: Springer, 2014 (pp. 15-31).

Grunwald, A., “The inherently democratic nature of technology assessment”, Science and Public Policy, 46(5), 2019 (pp. 702-709). https://doi.org/10.1093/scipol/scz023

Gunkel, D. J. y Bryson, J. “Introduction to the Special Issue on Machine Morality: The Machine as Moral Agent and Patient”, Philosophy & Technology, 27, 2014 (pp. 5-8). https://doi.org/10.1007/s13347-014-0151-1

Hennen, L., “Why do we still need participatory technology assessment?”, Poiesis Prax, 9, 2012 (pp. 27-41). https://doi.org/10.1007/s10202-012-0122-5

ITU-International Telecommunication Union, Frontier technologies to protect the environment and tackle climate change, 2020. https://www.itu.int/en/action/environment-and-climate-change/Documents/frontier-technologies-to-protect-the-environment-and-tackle-climate-change.pdf.

Jonas, H. El principio de responsabilidad: ensayo de una ética para la civilización tecnológica. Barcelona, Herder Editorial, 2004.

Kazim, E. y Koshiyama, A., “The interrelation between data and AI ethics in the context of impact assessments”, AI and Ethics, 1, 2021 (pp. 219-225). https://doi.org/10.1007/s43681-020-00029-w

Kartha, S.; Siebert, C.K; Mathur, R.; Nakicenovic, N.; Ramanathan, V.; Rockström, J.; Schellnhuber, H.J; Srivastava, L.; Watt, R., A Copenhagen Prognosis: Towards a safe climate future. Report by the Potsdam Institute for Climate Impact Research, Sto-ckholm Environment Institute, and The Energy and Resources Institute, 2009. https://mediamanager.sei.org/documents/Publications/Climate-mitigation-adaptation/a20copenhagen20prognosis.pdf

Konrad, K., Rip, A. y Schulze Greiving, V“Constructive Technology Assessment-STS for and with Technology Actors”, EASST Review, 36(3), 2017. https://easst.net/article/constructive-technology-assessment-sts-for-and-with-technology-actors/

Lacoste, A., Luccione, A., Schmidt, V. y Dandres, T., Quantifying the Carbon Emisions of Machine Learning, 2019. https://arxiv.org/abs/1910.09700v2

Microsoft, AI for Earth, 2018. https://www.microsoft.com/en-us/ai/ai-for-earth

Monasterio Astobiza, A., “Inteligencia Artificial para el bien común (AI4SG): IA y los Objetivos de Desarrollo Sostenible”, Arbor, 197(802), 2021 (pp. 1-19). https://doi.org/10.3989/arbor.2021.802007

Monasterio Astobiza, A., Toboso, M., Aparicio, M. y López, D., “AI Ethics for Sustainable Development Goals”, IEEE Technology and Society Magazine, 40(2), 2021 (pp. 66-71).

Mosco, V., To the Cloud: Big Data in a Turbulent World, Boulder, Paradigm, 2014.

Nilsson J. N., Inteligencia artificial: una nueva síntesis. Madrid: McGraw-Hill, 2001.

Organización de Naciones Unidas, Objetivos de Desarrollo Sostenible, 2015. https://www.undp.org/content/undp/es/home/sustainable-development-goals.html

Parikka, J., A Geology of Media, Minneapolis, University Of Minnesota Press, 2015.

Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M. y Dean, J., Carbon Emissions and Large Neural Network Training, 2021. https://arxiv.org/abs/2104.10350

Rip, A., van del Belt, H. y Schwarz, M., “Theoretische Analyses”, en Daey Ouwens, C., van Hoogstraten, P., Jelsma, J., Prakke, F. and Rip, A., Constructief Technologisch Aspectenonderzoek, Een Verkenning, Den Haag, Staatsuitgeverij, 1987 (pp. 14-29)

Rip. A., Misa, T. y Schot, J., Managing Technology in Society. The Approach of Constructive Technology Assessment, London: Thomson Learning, 1995.

Rip, A. y Robinson, D. R. R., “Constructive Technology Assessment and the Methodology of Insertion”, en Neelke, D., Daan, S., Ibo, P. y Michael E. G., Early engagement and new technologies: Opening up the laboratory, Springer, 2013 (pp. 37-53).

Robbins, S., “A Misdirected Principle with a Catch: Explicability for AI”, Minds and Machines, 29, 2019 (pp. 495-514). https://doi.org/10.1007/s11023-019-09509-3

Rolnick, D., Donti, P. L., Haack, L. H., Kochanski, K., Lacoste, A., Sankaran, K., Slavin Ross, A., Milojevic-Dupont, N., Jaques, N., Waldman-Brown, Luccioni, A., Maharaj, T., Sherwin, E. D., Mukkavilli, K., Kording, K. P., Gomes, C., Ng, A. Y., Hassabis, D., Platt, J. C., Creutzig, F., Chayes, J. y Bengio, Y., Tackling Climate Change with Machine Learning, 2019. https://arxiv.org/abs/1906.05433

Sartori, L. y Theodorou, A., “A sociotechnical perspective for the future of AI: narratives, inequalities, and human control”, Ethics and Information Technology, 24(4), 2022 (pp. 1-11). https://doi.org/10.1007/s10676-022-09624-3

Schot, J. y Rip, A., “The Past and Future of Constructive Technology Assessment”, Technological Forecasting and Social Change, 54, 1997 (pp. 251-268). https://doi.org/10.1016/s0040-1625(96)00180-1

Schwab, K., La cuarta revolución industrial. Barcelona: Debate, 2016.

Schwartz, R., Dodge, J., Smith, N. A. y Etzioni, O., Green AI, 2019. https://arxiv.org/abs/1907.10597

Skeem, J. L. y Lowenkamp Ch., “Risk, Race, and Recidivism. Predictive Bias and Disparate Impact”, Criminology, 54(4), 2016 (pp. 680-712). https://doi.org/10.1111/1745-9125.12123

Solomon, S., D. Quin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor y H.L. Miller, Climate Change 2007 - The Physical Science Basis, Cambridge, United Kingdom and New York, NY, USA, Cambridge University Press, 2007.

Steffen, W., Richardson, K., Rockström, J., Cornell, S. E., Fetzer, I., Bennett, E. M., Biggs, R., Carpenter, S. T., de Vries, W., de Wit, C. A., Foke, C., Gerten, D., Heinke, J., Mace, G. M., Persson, L. M., Ramanathan, V., Reyers, B. y Sörlin, S., “Planetary boundaries: Guiding human development on a changing planet”, Science, 349(6254), 2015 (pp. 1286-1287). https://doi.org/10.1126/science.1259855

Stoddart, H., Schneeberger, K., Dodds, F., Shaw, A., Bottero, M., Cornforth, J. y White, R., “A pocket guide to sustainable development governance”, Stakeholder Forum 2011, 2011.

Strubell, E., Ganesh, A. y McCallum A., “Energy and Policy Considerations for Deep Learning in NLP”, in 57th Annual Meeting of the Association for Computational Linguistics (ACL). Florence, Italy. July 2019. https://arxiv.org/abs/1906.02243v1

Terrones Rodríguez, A. L., “Inteligencia artificial, responsabilidad y compromiso cívico y democrático”, Revista Iberoamericana de Ciencia, Tecnología y Sociedad, 44(15), 2020 (pp. 253-276).

Van Wynsberghe, A., “Sustainable AI: AI for sustainability and the sustainability of AI”, AI and Ethics, 1, 2021 (pp. 213-218). https://doi.org/10.1007/s43681-021-00043-6

Wolff Anthony, L. F., Kanding, B. y Selvan, R., “Carbontracker: Tracking and Predicting the Carbon Footprint of Training Deep Learning Models”, Challenges in Deploying and monitoring Machine Learning Systems, 2020. https://arxiv.org/abs/2007.03051

World Meteorological Organization, WHO Statement on the State of the Global Climate in 2019, 2020. https://library.wmo.int/index.php?lvl=notice_display&id=21704#.YQe0Po4zZPY