Aprovechar la inteligencia humana y mecánica para el planeta
HogarHogar > Blog > Aprovechar la inteligencia humana y mecánica para el planeta

Aprovechar la inteligencia humana y mecánica para el planeta

Jun 18, 2024

npj Climate Action volumen 2, número de artículo: 20 (2023) Citar este artículo

1587 Accesos

101 altmétrico

Detalles de métricas

Se espera que la carrera global en curso por sistemas de inteligencia artificial (IA) más grandes y mejores tenga un profundo impacto social y ambiental al alterar los mercados laborales, alterar los modelos de negocios y permitir nuevas estructuras de gobernanza y bienestar social que pueden afectar el consenso global para las vías de acción climática. . Sin embargo, los sistemas de IA actuales están entrenados en conjuntos de datos sesgados que podrían desestabilizar a las agencias políticas, impactar las decisiones de mitigación y adaptación al cambio climático y comprometer la estabilidad social, lo que podría conducir a eventos de inflexión social. Por lo tanto, el diseño apropiado de un sistema de IA menos sesgado que refleje los efectos directos e indirectos sobre las sociedades y los desafíos planetarios es una cuestión de suma importancia. En este artículo, abordamos la cuestión de la generación de conocimiento centrada en datos para la acción climática de maneras que minimicen la IA sesgada. Argumentamos la necesidad de alinear una IA menos sesgada con una red epistémica sobre los desafíos de la salud planetaria para una toma de decisiones más confiable. Se puede diseñar una IA con un ser humano en el circuito para alinearse con tres objetivos. En primer lugar, puede contribuir a una red epistémica planetaria que apoye la acción climática. En segundo lugar, puede permitir directamente intervenciones de mitigación y adaptación a través del conocimiento de los elementos de inflexión social. Finalmente, puede reducir las injusticias de datos asociadas con los conjuntos de datos de preentrenamiento de IA.

La era de la inteligencia artificial (IA) ha comenzado y está llena de oportunidades y responsabilidades. Aún está por entenderse claramente cómo la IA o la inteligencia artificial pueden ayudar a abordar los desafíos globales actuales, incluido el cambio climático.

Una transformación digital global necesitaría un nivel sin precedentes de inteligencia artificial. Hacer que esta inteligencia artificial sea sostenible y alinearla con los desafíos de la salud planetaria es un gran desafío en sí mismo, comenzando con la rápida reducción de las emisiones de GEI asociadas con Internet y los centros de datos actualmente intensivos en carbono1,2. La literatura enfatiza varias formas en las que la IA puede desempeñar un papel crucial para abordar el cambio climático. Puede proporcionar soluciones innovadoras para mitigar los impactos negativos de las emisiones de gases de efecto invernadero, aumentar la eficiencia energética y promover el desarrollo sostenible3 (que se analiza en detalle más adelante).

Abordar el cambio climático a través de la IA es un gran desafío debido a la enorme cantidad de variables asociadas con este complejo sistema. Por ejemplo, los conjuntos de datos climáticos son vastos y requieren una cantidad significativa de tiempo para recopilarlos, analizarlos y utilizarlos para tomar decisiones informadas que puedan traducirse en acciones climáticas. El uso de la IA para tener en cuenta los factores continuamente cambiantes del cambio climático nos permite generar predicciones mejor informadas sobre los cambios ambientales, lo que nos permite implementar estrategias de mitigación antes. Esta sigue siendo una de las aplicaciones más prometedoras de la IA en la planificación de la acción climática. Sin embargo, al tiempo que explican el potencial de las herramientas de IA en el modelado de sistemas terrestres basado en la física para predecir el cambio climático, Irrgang et al.4 enfatizan la necesidad de confiar en hipótesis de investigación claras y físicamente significativas, el determinismo geofísico del modelado basado en procesos y un análisis cuidadoso. evaluación humana frente al conocimiento de un dominio específico para desarrollar una IA significativa que pueda abordar los desafíos de la ciencia climática con modelos clásicos del sistema terrestre.

Además, a medida que recién se comienza a comprender el impacto incorporado de algunos de los actuales sistemas de inteligencia artificial y de inteligencia artificial asociados con la minería de criptomonedas, la computación en la nube y los modelos de aprendizaje automático a gran escala, el impacto acelerado de la digitalización en el consumo y la extracción de recursos parece aumentar. ser un problema cada vez más preocupante. Como resultado, nuestra trayectoria actual de digitalización parece un arma de doble filo que puede aumentar las emisiones de gases de efecto invernadero y empeorar la salud planetaria general2.

Además, se desconoce la influencia de la digitalización en el entorno natural y los sistemas sociales y requerirá un diseño cuidadoso de políticas públicas en muchos ámbitos5. El diseño deseable de un sistema de inteligencia artificial responsable, que refleje los efectos directos e indirectos sobre las sociedades y la salud planetaria, es una cuestión de suma importancia que ampliamos en este artículo desde una perspectiva de pensamiento de diseño. Enfatizamos la necesidad de alinear una red epistémica de desafíos de salud planetaria con los objetivos de una IA de acción climática menos sesgada, y eliminar el sesgo de conjuntos de datos previos a la capacitación a gran escala puede allanar el camino inicial. Los conceptos y definiciones clave utilizados en este documento se ilustran en el Cuadro 1.

La inteligencia artificial es el resultado de programar máquinas con algunas características de la inteligencia humana, como el aprendizaje, la resolución de problemas y la priorización, a menudo habilitadas a través del aprendizaje automático (ML), que permite a una máquina resolver problemas complejos. ML es una aplicación de IA que opera con razonamiento deductivo basado en datos observados, combinando computación, modelos y algoritmos para realizar predicciones o decisiones útiles.

Se prevé que los verdaderos sistemas de inteligencia artificial reconozcan cuándo han cometido errores, estén atentos a datos similares que podrían conducir a un error similar en el futuro y eviten repetir errores. Así, tendrá acceso a una variedad de métodos de ML y técnicas de automatización y priorizará de manera inteligente el logro de objetivos específicos. En el contexto tecnológico actual, la inteligencia artificial se define como una forma avanzada de aprendizaje automático con la adición de priorización y objetivos: un trampolín en el camino hacia la verdadera inteligencia artificial general74,75.

Usamos los términos inteligencia artificial e IA indistintamente para representar nuestra era digital actual, que se espera que tenga profundos impactos sociales y ambientales al alterar el mercado laboral, los modelos de negocios, la gobernanza y las estructuras de bienestar social24. Sin embargo, una comprensión integral de los efectos dinámicos deseados y no deseados requiere más atención, especialmente a medida que están surgiendo rápidamente modelos de IA mejores y más grandes.

La digitalización es la integración de las tecnologías digitales en las estructuras sociales y la economía. Se considera la columna vertebral de la nueva era industrial impulsada por la inteligencia artificial (IA), llamada Industria 4.0 (y más allá). No todas las formas de digitalización son positivas, y están surgiendo pruebas de que los dispositivos digitales, como los contadores inteligentes o las pantallas domésticas y los hogares inteligentes o conectados digitalmente, podrían ser más propensos a aumentar el consumo de energía y las emisiones de carbono, la vulnerabilidad a los piratas informáticos y las invasiones de capitalismo de privacidad y vigilancia, e índices aún más altos de violencia doméstica y abuso76,77,78,79.

Los desafíos de la salud planetaria6 incluyen el cambio climático, la pérdida de biodiversidad, la contaminación del aire, la contaminación del agua, el cambio en el uso de la tierra y los sistemas alimentarios.

Jürgen Renn8 imagina la red epistémica, donde la actual Internet (web) se convertirá en un universo de conocimiento paralelo al conocimiento humano. En la Web Epistémica, la navegación será reemplazada por la federación intencionada de documentos. Todos los datos serán metadatos y todos los documentos serán perspectivas del universo del conocimiento. Al permitir enlaces enormemente enriquecidos entre documentos (enlaces entrantes y salientes; enlaces multidireccionales; enlaces transitivos e intransitivos; enlaces con etiquetas semánticas adjuntas; enlaces con comportamientos específicos), la Web Epistémica permitirá que los documentos se describan entre sí. Así, la digitalización de los acervos de conocimiento actuales es fundamental; El conocimiento debe ser accesible, encontrable y disponible para la producción recursiva de nuevo conocimiento.

La IA humana busca lograr lo que ni los humanos ni las máquinas pueden por sí solos. Cuando una máquina es incapaz de resolver un problema, los humanos deben intervenir. Este procedimiento produce un ciclo de retroalimentación continuo. Esta estrategia de diseño de IA se considera cada vez más una forma de crear una IA menos sesgada.

Los puntos de inflexión social (STP) son casos en los que se produce un cambio rápido y significativo en las actitudes, creencias, comportamientos o valores de toda una sociedad o de una parte sustancial de ella. Estos puntos de inflexión pueden ser precipitados por una variedad de factores, como avances tecnológicos, movimientos culturales, eventos políticos, cambios económicos o crisis ambientales7,29,80,81,82,83,84,85,86. Estos pueden conducir a cambios transformadores en las normas sociales, el poder y las instituciones políticas con efectos duraderos en los individuos y las sociedades en su conjunto. Por ejemplo, las huelgas climáticas globales se consideran eventos de cambio social81.

Estos puntos de inflexión están determinados por elementos de inflexión social (STE) que incluyen el sistema de producción de energía, los asentamientos humanos, el sistema financiero, las normas y valores, el sistema de información y el sistema educativo.

La justicia de datos se define como la equidad en la forma en que las personas son visibles, representadas y tratadas como resultado de su producción de datos digitales, lo que hace necesario determinar caminos éticos a través de un mundo dataficante10.

La acción climática a través de la inteligencia artificial debe significar apoyar las decisiones de mitigación y adaptación al clima a escala global evitando al mismo tiempo el exceso de emisiones. Sin embargo, la generación actual de sistemas de inteligencia artificial que impulsan la digitalización tiene sesgos incorporados y problemas de justicia de datos, lo que los hace menos confiables para una toma de decisiones transparente. Por lo tanto, para una acción climática eficaz, se necesita una IA menos sesgada y colaborativa que no compita con los humanos sino con ellos para abordar desafíos tan urgentes de salud planetaria6,7 —enfatizando una visión centrada en el ser humano/humano en el -IA de bucle. Diferentes personas deben aportar sus perspectivas y conocimientos para desarrollar una IA menos sesgada. Un sistema de conocimiento así podría constituir lo que Jürgen Renn8 llama una "red epistémica".

En esta perspectiva, investigamos la generación de conocimiento centrada en datos para la acción climática en el contexto de una IA sesgada (o menos sesgada). Para esto, imaginamos la coproducción de una red epistémica de desafíos de salud planetaria basada en la epistemología de Renn8, apoyándose en redes sociales, semióticas y semánticas para alinear la inteligencia artificial deseable que capture las dimensiones estrechamente entrelazadas del conocimiento humano actual que informa la actualidad. modelos de inteligencia de máquinas de última generación (ver Fig. 1). Los actores individuales o colectivos forman la base de una red social donde estos actores poseen conocimiento y participan en la producción, el intercambio, la difusión o la apropiación del conocimiento. El proceso de intercambio social y comunicativo se manifiesta en forma de tradiciones, reglas, convenciones y normas, así como en términos de limitaciones y estructuras de poder que fortalecen, debilitan, facilitan o impiden los vínculos dentro de las redes sociales8. Estos forman la base de la 'contextualización' de los desafíos globales, donde, por ejemplo, el conocimiento local y las normas sociales pueden derivar enfoques relevantes de mitigación y adaptación al clima9. Sin embargo, las injusticias existentes en materia de datos representan un importante obstáculo para lograr conocimientos y experiencias más inclusivos en lo que respecta a la acción climática1,10,11,12.

La base epistemológica se deriva de la ref. 8.

La red semiótica, que comunica significado, incluye todo el contexto material de la acción, incluidos los artefactos tecnológicos generados a partir del conocimiento tecnológico de los productores8. Un ejemplo reciente es ChatGPT13 de OpenAI, que utiliza miles de millones de parámetros de texto de Wikipedia y otras fuentes de Internet como conjunto de datos previamente entrenado. Produce "nuevos conocimientos" en forma de formato de diálogo. Según Renn8, históricamente las redes semióticas suelen ser el punto de partida para reconstruir otros aspectos de la red epistémica. Esto da forma a la motivación de este artículo. A medida que surjan modelos de IA mejores y más significativos, podremos alinear la inteligencia artificial responsable con una red epistémica de desafíos de salud planetaria.

Las redes semánticas deben reconstruirse a partir de representaciones externas, como los textos escritos. Utiliza el hecho de que los conceptos tienen expresiones en el lenguaje. Sin embargo, las redes semánticas no tienen una relación uno a uno ni con conceptos ni con otros componentes cognitivos; un mismo concepto puede corresponder a diferentes términos en el lenguaje, mientras que un mismo término puede representar diferentes conceptos8. Esta ha sido la base de muchos modelos de lenguaje grande (LLM) previamente entrenados para sistemas de inteligencia artificial, incluidos modelos fundamentales como los GPT. Teóricamente, Renn8 aboga por redes semánticas organizadas deductivamente para formar sistemas de conocimiento altamente organizados. Ampliamos el marco de Renn para crear un camino a seguir para coproducir una inteligencia artificial menos sesgada con una red epistémica de desafíos planetarios impulsada por IA a través de acciones de digitalización.

Utilizando la base teórica de la red epistémica de desafíos de salud planetaria, adoptamos un enfoque deconstructivista para analizar cómo la inteligencia artificial preentrenada actual influye en las relaciones entre digitalización, equidad, agencia política, estabilidad social y acción climática. Al hacerlo, primero definimos el alcance de los actuales sistemas de inteligencia artificial en la acción climática, especialmente en relación con la mitigación y la adaptación. A continuación, mostramos que para una red epistémica de desafíos planetarios, es necesario superar los riesgos de rendición de cuentas asociados con sistemas de IA sesgados para la acción climática (ver Tabla 1). Aquí es donde la dimensión de red social de la red epistémica de Renn (ver Fig. 1) se vuelve importante como base para la generación de consenso colectivo y la estabilidad social. Hacemos hincapié en que un diseño de IA con un ser humano en el circuito es fundamental para una red epistémica que esté libre de conjuntos de datos sesgados, programación sesgada y algoritmos sesgados (ver Fig. 2). Finalmente, enfatizamos la eliminación de las barreras a la diversidad y la inclusión en la comunidad de inteligencia artificial para crear conjuntos de datos de entrenamiento confiables y fundamentados que puedan sostener un bucle epistémico impulsado por la IA de "datos a partir del conocimiento" y "conocimiento a partir de datos" (ver Fig. 3). .

Las estructuras sociales y la inteligencia colectiva proporcionan conocimiento epistémico para la IA de acción climática (Fuente: Autores).

Coproducir conocimiento para una red epistémica de desafíos planetarios y una IA menos sesgada aprovechando las características deseadas de justicia de datos (Fuente: Autores).

En la actualidad, los sistemas de inteligencia artificial para la acción climática se encuentran en una etapa temprana de desarrollo y su impacto recién comienza a comprenderse, lo que genera sesgos en toda su cadena de valor, lo que hace que estos sistemas de IA sean menos confiables para la toma de decisiones en materia de acción climática14. A partir de la aplicación de la IA en la modelización climática (como se analizó anteriormente), los sesgos pueden influir en la precisión, la confiabilidad y la interpretabilidad de las predicciones, lo que puede afectar seriamente las decisiones sobre acciones de mitigación y adaptación al clima. Por ejemplo, si un modelo climático sesgado se entrena con datos que excluyen ciertas regiones o períodos de tiempo, es posible que las predicciones no reflejen con precisión el alcance completo del cambio climático. De manera similar, dichos modelos pueden representar insuficientemente ciertas variables o factores y proporcionar estimaciones inexactas de las emisiones de carbono de industrias particulares, lo que lleva a una subestimación del impacto real de esas variables en el clima. Además, los modelos climáticos sesgados pueden empeorar el impacto climático y las inequidades en la respuesta. Si los modelos de IA solo consideran cómo afectará el cambio climático a un pequeño número de regiones o poblaciones, esas regiones y personas pueden experimentar efectos desproporcionadamente negativos.

Los sesgos pueden surgir de clases superpuestas, como bases de datos sesgadas, algoritmos sesgados y programación sesgada. Por ejemplo, Rich y Gureckis15 señalan tres causas de sesgo en los actuales sistemas de inteligencia artificial: conjuntos de datos pequeños e incompletos, aprendizaje de los resultados de nuestras decisiones y procesos de inferencia y evaluación sesgados. Estos sesgos reducen la precisión y confiabilidad de muchos sistemas de inteligencia artificial de la generación actual para la acción climática, haciéndolos menos responsables, interpretables y explicables (ver un estudio completo de los modelos de caja negra aquí16). Los investigadores de Justicia, Responsabilidad y Transparencia (FAccT) presentan cinco riesgos de responsabilidad algorítmica17 que pueden surgir de tales sesgos. Sintetizamos estos riesgos con respecto al diseño de la IA de acción climática (ver Tabla 1).

Si bien los investigadores de la FAccT y la ética de la IA están comenzando a discutir el papel potencial de la IA en la mitigación de los problemas de rendición de cuentas antes mencionados en la acción climática3,14,18, los caminos para desarrollar una IA menos sesgada para la evaluación climática siguen siendo inciertos. A partir del alcance de este artículo de la red epistémica en la Fig. 1, nos centramos en la necesidad de conjuntos de datos de capacitación de calidad que representen la realidad diversa y fundamentada de la perspectiva y las experiencias humanas (conocimiento epistémico) con el menor sesgo posible, lo que se vuelve muy crítico para hacer IA menos sesgada19,20. Además, esta característica de representar los diferentes tipos de conocimiento humano en el sistema de inteligencia artificial es necesaria cuando se dependerá de estos modelos para tomar decisiones sobre cómo abordar el cambio climático como un desafío para la salud planetaria. Por ejemplo, Gupta et al.21 definen e implementan la justicia del sistema terrestre para vincular los aspectos físicos y sociales del cambio climático y garantizar que las acciones de salud planetaria reduzcan el daño, mejoren el bienestar y reflejen la justicia tanto sustantiva como procesal.

Por lo tanto, una característica deseable de la inteligencia artificial y los sistemas de IA para la acción climática es la incorporación de conocimiento epistémico, que se puede lograr a través de conjuntos de datos previos al entrenamiento diversos y representativos. Sin embargo, la literatura muestra que incorporar conocimiento epistémico no es sencillo, ya que incluso los sistemas de IA más avanzados de la generación actual deben ser más transparentes, explicables e interpretables22. Interpretabilidad significa que la causa y el efecto se pueden determinar en modelos de aprendizaje automático (ML). La explicabilidad es crucial para perforar la caja negra de los modelos de ML y comprender cómo funciona el modelo16,23. Estas dos características son fundamentales para reducir los riesgos de responsabilidad algorítmica (ver Tabla 1) y hacer que la IA sea más segura para la toma de decisiones de acción climática de alto riesgo23.

Otro impedimento importante es la necesidad de una cuantificación más precisa de la incertidumbre en los sistemas de IA existentes24. Esto hace que muchos sistemas de inteligencia artificial de la generación actual se sientan demasiado confiados y cometan errores25. Por lo tanto, la base epistémica actual (como la red mundial) de la inteligencia artificial incorpora estas limitaciones y sesgos que la hacen menos práctica para la toma de decisiones individuales y colectivas para la acción climática. Como resultado, los sistemas de IA actuales son menos útiles para aplicaciones directas en la mitigación y adaptación al clima.

Los avances recientes en los enfoques de aprendizaje automático con humanos en el circuito que utilizan modelos de lenguaje grande (LLM) muestran un camino a seguir para integrar circuitos de retroalimentación epistémica en modelos de caja negra. Los modelos Human-in-the-loop se refieren a sistemas o algoritmos de aprendizaje automático que involucran interacción y aportes humanos para mejorar su precisión. Un ejemplo reciente es ChatGPT13 de Open AI, que utiliza un sistema humano-in-the-loop26. En ChatGPT, el sistema de IA interactúa de forma conversacional con el usuario humano. Este formato de diálogo permite responder preguntas de seguimiento, admitir errores, cuestionar premisas incorrectas y rechazar solicitudes inapropiadas13. El elemento de inteligencia artificial de ChatGPT está en el entrenamiento de su modelo mediante el aprendizaje reforzado a partir de retroalimentación humana (RLHF)27 impulsado por el algoritmo de optimización de políticas próximas (PPO).

Como punto de partida para conceptualizar una red epistémica, Creutzig et al.2 demuestran una relación entre digitalización, equidad, agencia política, cambio climático y estabilidad planetaria. Enfatiza el impacto directo e indirecto de la IA en la acción climática. Por ejemplo, un impacto directo como la demanda de energía para entrenar grandes modelos de aprendizaje automático en centros de datos. Impactos indirectos como aplicaciones de inteligencia artificial que reducen las emisiones de gases de efecto invernadero y el impacto ambiental. La digitalización de las redes sociales a través de algoritmos (es decir, plataformas de redes sociales) es fundamental para crear polarización (a través de información errónea y desinformación)28 y moldear la opinión política que afecta la equidad social dentro y entre los países. Los altos niveles de inequidad y polarización reducen la viabilidad de acciones climáticas consensuadas, lo que conduce a escenarios de inflexión social irreversibles. Por tanto, son indirectamente relevantes para el diseño de inteligencia artificial y sus modelos de recompensa.

Conectamos las interdependencias epistémicas de la inteligencia artificial con la agencia política y los elementos de democracia, equidad y cambio social (que se analizan en la siguiente sección). Ilustramos una base web epistémica para definir la inteligencia artificial deseable para la digitalización que equilibre la equidad social, estabilice la agencia política (y por lo tanto la democracia) y garantice que los objetivos de mitigación y adaptación al clima se cumplan a través de una acción climática sostenida, previniendo así potencialmente un vuelco social irreversible3,29 ,30. La digitalización debería permitir que la acción colectiva (como datos para el conocimiento) se transfiera desde la red epistémica de desafíos planetarios para entrenar los sistemas de IA. Permitiendo así la generación de conocimiento a partir de los datos. Esto definirá la verdadera escala de un sistema humano involucrado para la digitalización a nivel planetario.

Cada vez más, el contexto de la IA con humanos en el circuito está ganando importancia crítica, ya que es beneficioso para reducir los sesgos cuando un grupo diverso de humanos con diferentes identidades, orígenes y puntos de vista, utilizando inteligencia colectiva31, participa en el diseño de sistemas de inteligencia artificial26. . En las mejores circunstancias, utilizar dicha inteligencia colectiva para la colaboración y cocreación entre humanos y máquinas da como resultado la generación de conocimiento como una red epistémica.

Presentamos este marco de diseño en la Fig. 2, que enfatiza que la red epistémica contiene conocimiento fundamentado y diverso de las estructuras sociales que son elementos críticos de inflexión social29. En la red epistémica social (ver Fig. 1), los sistemas de IA entrenados a través de dicha red epistémica pueden ayudar a reducir la información errónea, eliminar el escepticismo y restaurar la confianza32. Garantizando así la estabilidad de las instituciones sociopolíticas que son fundamentales para determinar el consenso para la acción climática.

Al imaginar un sistema de IA para la acción climática, establecemos que dichos sistemas están impulsados ​​por la necesidad de reducir el riesgo de rendición de cuentas (ver Tabla 2) que ofrece una IA menos sesgada, junto con el impulso hacia la digitalización a escala planetaria que permite la acción climática colectiva, que por sí mismo está influenciado por la red epistémica. Esta red epistémica crea una base más sólida para la toma de decisiones colectivas y la acción individual, esfuerzos que podrían llegar a desempeñar un papel más importante en la aceleración de políticas climáticas de mitigación y adaptación que podrían contribuir a minimizar los riesgos de un colapso social irreversible.

El desafío más apremiante en este contexto es la necesidad de conjuntos de datos más diversos y confiables para construir algoritmos diferentes y confiables que representen la realidad fundamentada, así como la toma de decisiones deliberada sobre estos algoritmos, lo que está dando forma a los debates actuales sobre la urgente necesidad de justicia de datos. y sus agencias10.

Por ejemplo, Schramowski et al.33 han demostrado que los modelos de lenguaje grandes (LLM, por sus siglas en inglés) como BERT, GPT-2 y GPT-3 entrenados en corpus de texto sin filtrar sufren de un comportamiento degenerado y sesgado. No obstante, los autores demostraron con éxito que el LLM preentrenado y corregido por humanos podría mitigar los riesgos asociados de degeneración tóxica. Utilizaron un cuestionario de 117 preguntas para crear un diseño humano involucrado para darle al sistema de inteligencia artificial una dirección moral sobre lo que está bien y lo que está mal hacer. Esta característica de los sistemas de IA de acción climática es fundamental para dar forma a la red epistémica que incorpora capas de conocimiento de estructuras sociales críticas para los puntos de inflexión social.

Este aprendizaje interactivo de la inteligencia artificial con la inteligencia humana es deseable para fomentar la acción climática impulsada por la IA. Esta interactividad hombre-máquina es el núcleo de los sistemas de IA responsables34 que pueden razonar sobre normas sociales, culturales y morales como conjuntos de datos de estructuras sociales críticos para permitir un consenso sobre la mitigación y la adaptación al clima que no existe actualmente35. Forbes et al.36 hicieron un intento mediante la creación de un corpus social a gran escala llamado Social-Chem-101. De manera similar, Colas et al.37 conceptualizaron la inmersión de los agentes autotélicos en mundos socioculturales ricos para hacer que los sistemas de IA sean más confiables (los agentes autotélicos son agentes de aprendizaje intrínsecamente motivados que pueden aprender a representar, generar, seleccionar y resolver sus propios problemas).

Como estudio de caso oportuno para la IA generativa, el aprendizaje reforzado a través de la retroalimentación humana (RLHF) en ChatGPT muestra que la inteligencia humana se puede integrar con la inteligencia artificial para diseñar modelos de recompensa específicos para el sistema de IA. Esto se puede aprovechar para mejorar la confiabilidad de los sistemas de inteligencia artificial a través de un enfoque de diseño centrado en el ser humano38 para ajustar el RLHF que pregunte qué es deseable en la actual megatendencia de transformación digital de las economías y sociedades. Estas aplicaciones del diseño humano-in-the-loop muestran oportunidades para contextualizar la inteligencia artificial para una acción climática conductual a escala de sistema que evite puntos de inflexión social (STP, por sus siglas en inglés, ver Cuadro 1)32. En el Cuadro 2, presentamos un alcance teórico de los datos que representan capas estructurales sociales de elementos de inflexión social (STE).

Aún no se sabe cómo los sistemas de inteligencia artificial con participación humana basados ​​en LLM, como ChatGPT, pueden apoyar la mitigación y adaptación al clima, especialmente en las ECE. Un ejemplo reciente es la creación de ClimateBERT, donde los investigadores perfeccionaron un LLM utilizando los informes del IPCC para mejorar la comprensión pública de los riesgos climáticos y hacer que la información climática sea más accesible para la comunidad en general39. Sin embargo, se debe tener precaución para eliminar los sesgos e incertidumbres existentes en el diseño y las operaciones de la inteligencia artificial. Por ejemplo, investigadores de DeepMind revelaron recientemente una taxonomía de riesgos que plantean los LLM, que se utilizan para entrenar IA generativa40, que incluyen: i) discriminación, discurso de odio y exclusión; ii) peligros de la información; iii) la desinformación perjudica; iv) usos maliciosos; v) daños en la interacción persona-computadora; y vi) daños ambientales y socioeconómicos. Una parte de este problema es que estos sistemas de IA basados ​​en LLM están lejos de ser sistemas de IA confiables, ya que su interpretabilidad y explicabilidad todavía dependen exclusivamente de sus conjuntos de datos previos al entrenamiento de fuentes de Internet como bases de datos de Wikipedia, News y BookCorpus. Esto triangula nuestro enfoque en la necesidad de alinearnos con una red epistémica que represente conocimientos y perspectivas humanos confiables y diversos.

Áreas de aplicación

Modelado climático

El conocimiento de las costumbres, las normas, la religión, las instituciones políticas y la identidad individual y grupal da forma al consenso para las acciones de mitigación y adaptación utilizando la IA.

Gestión Energética

Reflejar los atributos del comportamiento humano del consumo de energía a escala y su contextualización con dimensiones de justicia energética.

Energía renovable

Datos sobre previsión de producción y demanda, estabilidad de la red y asignaciones de mercado a una escala interactiva granular y socioeconómica.

Adaptación climática

La representación del conocimiento epistémico de comunidades vulnerables y marginales mejora la diversidad y la inclusión de los conjuntos de datos sobre el impacto climático.

Captura de carbon

Datos socioeconómicos sobre los impactos de las compensaciones de carbono a escala local, nacional y regional.

Ciudades

Conjuntos de datos de comportamiento a gran escala sobre estrategias de adaptación y resiliencia urbana basadas en conocimientos localizados de costumbres, cultura y normas.

Inteligencia colectiva

Información sobre los impulsores del consenso sociopolítico para la acción climática, incluidos los mecanismos para contrarrestar la desinformación y la polarización entre culturas y normas.

La IA actual es menos confiable para la toma de decisiones, especialmente cuando se relaciona con los esfuerzos de mitigación y adaptación al clima. Sintetizamos los riesgos de rendición de cuentas asociados con dichos sistemas en la Tabla 2, así como la necesidad de actuar sobre programación sesgada, algoritmos sesgados y conjuntos de datos sesgados para una IA de acción climática más confiable. Por ejemplo, en la sección anterior, enfatizamos que los modelos climáticos sesgados basados ​​en IA pueden llevar a pronósticos y evaluaciones de impacto inexactos, lo que afectará la toma de decisiones. Para corregir estos sesgos, los sistemas de IA requieren la participación humana, especialmente para producir e introducir los datos de entrenamiento en los algoritmos en la etapa inicial del desarrollo del modelo26. Esto requiere esfuerzos sinceros para incorporar la justicia de datos en los conjuntos de datos previos al entrenamiento.

En este ámbito, sostenemos que es fundamental un diseño humano de la IA de acción climática que abarque la diversidad de perspectivas y conocimientos de ingenieros, científicos sociales, filósofos, profesionales de la industria, formuladores de políticas y el público26. Por ejemplo, el concepto de una IA confiable que sea humanista, justa y ética es el núcleo del diseño de un sistema de inteligencia artificial deseable19. Ampliamos este argumento a favor de una IA de acción climática con participación humana.

Sin embargo, la noción de confianza algorítmica es subjetiva al contexto (como se ilustra en la Tabla 2) y enfatiza la necesidad de que los expertos en ML/AI relacionen cómo sus métricas de confianza impactan la confianza de los individuos y el público41,42. Esto hace que el aprendizaje automático (ML) consciente de la equidad sea un desafío difícil, ya que los parámetros de medición de la equidad en términos de sesgo y nociones relacionadas aún no se comprenden claramente. Por ejemplo, Narayanan43 ha identificado 21 definiciones de equidad en la literatura, que no necesariamente pueden obtenerse todas al mismo tiempo.

Dos definiciones ampliamente utilizadas que se han incorporado ampliamente en los procesos de LD son las de equidad individual, que establece que los individuos que son similares deben ser tratados de manera similar, y la equidad grupal, que establece que los grupos demográficos deben, en general, recibir decisiones similares44. 45. Es importante comprender qué supuestos son razonables en un contexto determinado antes de desarrollar e implementar mecanismos justos (es decir, contextualización); sin este trabajo, los supuestos incorrectos podrían dar lugar a mecanismos injustos44,46.

Cerrar esa brecha epistémica asociada con el significado de justicia es fundamental para que los sistemas de IA de acción climática diseñen e implementen estrategias de mitigación y adaptación al clima. Los académicos de FAccT han propuesto varias soluciones para establecer un subconjunto de nociones de equidad41,42,47. Un enfoque que es más relevante para el alcance de nuestro artículo es reducir el sesgo en el conjunto de datos previo al entrenamiento, conocido como datos sin sesgo, que puede cumplir los objetivos de la justicia de datos10.

Un paso fundamental para eliminar el sesgo de los conjuntos de datos previos al entrenamiento es la creación de una IA centrada en datos que enfatice conjuntos de datos más responsables y específicos del contexto relacionados con la acción climática. La literatura de FAccT enfatiza la necesidad de "transparencia social" para hacer que los sistemas de IA sean confiables, alineando los esfuerzos necesarios para establecer ecosistemas organizacionales y regulatorios para garantizar una IA confiable en el dominio público (por ejemplo, el modelo MATCH)48,49,50. Además, la literatura sobre la intersección de las ciencias sociales y la ciencia de datos muestra que una lente de justicia de datos es fundamental para lograr transparencia social (lo que mejora la confiabilidad)10,11,12.

En la Fig. 3, destacamos que para desviar los conjuntos de datos previos al entrenamiento de una IA de acción climática, debemos crear un mecanismo interactivo y autosostenible de "datos a partir del conocimiento" y "conocimiento a partir de los datos". Los 'datos' en este caso deben contener información de múltiples capas sobre los impactos del cambio climático, las estrategias de mitigación y adaptación a escala del antropoceno, que luego puedan generar la base de 'conocimientos' necesaria para una acción climática apropiada y contextualizada para evitar cambios sociales irreversibles. propinas, como se mencionó anteriormente.

Aquí, sintetizamos las características de justicia de datos deseadas de una IA de acción climática menos sesgada que incorpore el conocimiento de las capas estructurales de la sociedad (ver Fig. 2) aprovechando las dimensiones existentes de justicia social de instrumentalidad (fines justos), distribución (asignación justa) y procedimiento (medios justos) que corresponden a las necesidades de diversidad e inclusión de datos a través del reconocimiento, la propiedad, la estructura y el espacio, como se ilustra en la Tabla 3. Por ejemplo, la falta de justicia de datos y su contextualización en la mayoría de las regiones del mundo vulnerables al clima plantea Existe un riesgo significativo de entrenar una IA sesgada que prácticamente puede alucinar durante las aplicaciones de toma de decisiones. Ya estamos experimentando resultados alucinatorios con ChatGPT.

En la Tabla 3, conectamos estas características con los requisitos específicos de una IA de acción climática menos sesgada que tiene aplicaciones en modelado climático, gestión energética, planificación urbana, captura y almacenamiento de carbono e inteligencia colectiva (como se ilustra en el Cuadro 2).

Los investigadores están encontrando formas innovadoras de producir una infraestructura centrada en datos para respaldar este objetivo. Por ejemplo, los investigadores africanos de IA han establecido un repositorio común de conjuntos de datos de IA para su contexto local, COCO-Africa51. MasakhaNER proporciona un gran conjunto de datos seleccionados de diez lenguas africanas con anotaciones de entidades nombradas52. Estas iniciativas aún son muy tempranas y se necesitan más esfuerzos para incorporarlas, especialmente a lo largo de las cinco palancas de las características de la justicia de datos.

Sin diversidad y la inclusión de una gama completa de poblaciones, corremos el riesgo de desarrollar algoritmos sesgados20 y, posteriormente, una red epistémica sesgada. Además, existe un riesgo adicional de no satisfacer la reserva de talentos de la IA y perder su beneficio social más amplio para resolver desafíos planetarios como el cambio climático, como se analizó anteriormente. El uso de la IA para la acción climática (mitigación y adaptación) es especialmente desafiante, ya que puede ser un arma de doble filo que puede aumentar las emisiones de gases de efecto invernadero y empeorar la salud planetaria general, lo que analizamos desde una perspectiva de punto de inflexión social. Este efecto se debe a sesgos e injusticias arraigados en los conjuntos de datos de entrenamiento utilizados en el diseño de los sistemas de IA generativa actuales.

Conceptualizamos la coproducción de una red epistémica de desafíos planetarios basada en la epistemología de Renn8 para alinear la inteligencia artificial deseable que capture las dimensiones de la red social, semiótica y semántica estrechamente entrelazadas del conocimiento humano actual que informan los modelos de IA preentrenados de la generación actual. Esta red epistémica puede ayudar a reducir los riesgos de rendición de cuentas17 asociados con el aprendizaje automático y los modelos de IA, al tiempo que corrige la polarización impulsada por algoritmos para la acción climática32, lo que lleva a un consenso colectivo para las políticas de adaptación y mitigación del clima. Preveíamos aprovechar los avances recientes en la IA con participación humana a través de agencias políticas y la toma de decisiones democrática2. Sin embargo, es necesario abordar las desigualdades existentes asociadas con la equidad, la ética y los prejuicios del sistema de IA.

La necesidad del momento es ser sensibles a las desigualdades e injusticias digitales dentro de la comunidad de inteligencia artificial, especialmente cuando la IA se utiliza como instrumento para abordar desafíos de salud planetaria como el cambio climático. Ahí es donde el papel de las ciencias sociales, la filosofía y las humanidades se vuelve aún más crítico. Una revisión reciente de la comunidad de IA53 abordó este tema, centrándose específicamente en los investigadores académicos de ciencia de datos. Superar esa brecha y eliminar el sesgo de los conjuntos de datos debería ser un componente central de un deseable sistema de digitalización impulsado por inteligencia artificial. De lo contrario, los conjuntos de datos previamente entrenados seguirán estando sesgados y representarán en exceso a ciertos grupos. Esto conduce a una IA de acción climática sesgada.

De manera similar, hay pruebas contundentes de desigualdades estructurales en la acción climática (mitigación y adaptación) entre y dentro de los países. Es aún más prominente en las comunidades vulnerables y con recursos limitados del Sur Global. Se estima que, si se mantienen, estas desigualdades tendrán resultados catastróficos que impactarán en el colapso social y la estabilidad planetaria, incluido el incumplimiento de ninguna vía de mitigación climática29.

Alinear mejor la IA menos sesgada con la protección del clima y respetar los límites planetarios también crea una oportunidad sin precedentes para actuar sobre las injusticias globales e incorporar un pensamiento positivo sobre la justicia de los datos en la actual ola de digitalización. Esto incluye garantizar que los beneficios de la digitalización corrijan las injusticias existentes, que los grupos vulnerables participen más en el establecimiento de normas y la formulación de políticas y que los grupos desfavorecidos, en particular, tengan acceso a datos abiertos. También sugiere que la propiedad y explotación de los datos se amplíe para incluir a la sociedad civil y a las comunidades mismas (por ejemplo, a través de cooperativas y acuerdos fiduciarios), la participación activa de los usuarios y la promoción del acceso a Internet de banda ancha como un bien público en lugar de un bien privado.

A medida que la inteligencia artificial impacta cada vez más a la sociedad, la diversidad y la inclusión son preocupaciones crecientes. Por lo tanto, la cocreación y coproducción de conocimiento, infraestructura y recursos humanos relevantes debe ser una prioridad deseable en el diseño de inteligencia artificial que defina una red epistémica de acción colectiva para abordar los desafíos planetarios.

Más información sobre el diseño de la investigación está disponible en el Resumen de informes de investigación de la naturaleza vinculado a este artículo.

Sovacool, BK, Monyei, CG & Upham, P. Hacer que Internet sea globalmente sostenible: opciones técnicas y políticas para mejorar la gestión energética, la gobernanza y la aceptación comunitaria de los centros de datos nórdicos. Renovar. Sostener. Energía Rev. 154, 111793 (2022).

Artículo de Google Scholar

Creutzig, F. y col. Digitalización y Antropoceno. Año. Rev. Medio Ambiente. Recurso. 47, 479–509 (2022).

Artículo de Google Scholar

Rolnick, D. y col. Afrontar el cambio climático con aprendizaje automático. Computación ACM. Sobrevivir. 55, 1–96 (2022).

Artículo de Google Scholar

Irrgang, C. y col. Hacia el modelado neuronal del sistema terrestre mediante la integración de la inteligencia artificial en la ciencia del sistema terrestre. Nat. Mach. Intel. 3, 667–674 (2021).

Artículo de Google Scholar

Creutzig, F. y col. Aprovechar la digitalización para la sostenibilidad en el transporte urbano. Sostenimiento global. 2, e14 (2019).

Artículo de Google Scholar

Whitmee, S. y col. Salvaguardar la salud humana en la época del Antropoceno: informe de la Comisión Lancet-Fundación Rockefeller sobre salud planetaria. Lanceta 386, 1973-2028 (2015).

Artículo de Google Scholar

Ripple, WJ y cols. Muchos circuitos de retroalimentación riesgosos amplifican la necesidad de acción climática. Una Tierra 6, 86–91 (2023).

Artículo de Google Scholar

Renn, J. La evolución del conocimiento. Prensa de la Universidad de Princeton, 2020. https://doi.org/10.1515/9780691185675.

Pörtner, H.-O. et al. Cambio climático 2022: impactos, adaptación y vulnerabilidad. Contribución del Grupo de Trabajo II al Sexto Informe de Evaluación del Panel Intergubernamental sobre Cambio Climático. (2022).

Taylor, L. ¿Qué es la justicia de datos? El caso para conectar los derechos y libertades digitales a nivel mundial. Sociedad de Big Data. 4, https://doi.org/10.1177/2053951717736335 (2017).

Heeks, R. & Renken, J. Justicia de datos para el desarrollo: ¿Qué significaría? inf. Desarrollo. 34, 90-102 (2018).

Artículo de Google Scholar

Heeks, R. & Shekhar, S. Dataficación, desarrollo y comunidades urbanas marginadas: un marco de justicia de datos aplicado. inf. Comunitario. Soc. 22, 992–1011 (2019).

Artículo de Google Scholar

OpenAI. ChatGPT: Optimización de modelos de lenguaje para el diálogo. OpenAI https://openai.com/blog/chatgpt/ (2022).

Kaack, LH y cols. Alinear la inteligencia artificial con la mitigación del cambio climático. Nat. Subir. Chang. 12, 518–527 (2022).

Artículo de Google Scholar

Rich, AS & Gureckis, TM Lecciones para la inteligencia artificial a partir del estudio de la estupidez natural. Nat. Mach. Intel. 1, 174–180 (2019).

Artículo de Google Scholar

Guidotti, R. et al. Un estudio de métodos para explicar los modelos de caja negra. Computación ACM. Sobrevivir. 51, 1–42 (2018).

Artículo de Google Scholar

Wieringa, M. Qué tener en cuenta al contabilizar algoritmos: una revisión sistemática de la literatura sobre responsabilidad algorítmica. en Actas de la Conferencia de 2020 sobre Justicia, Responsabilidad y Transparencia 1–18 https://doi.org/10.1145/3351095.3372833 (Asociación para Maquinaria de Computación, 2020).

Leal Filho, W. et al. Implementación de inteligencia artificial para la adaptación al cambio climático. Tecnología. Pronóstico. Soc. Cambio 180, 121662 (2022).

Artículo de Google Scholar

Liang, W. y col. Avances, desafíos y oportunidades en la creación de datos para una IA confiable. Nat. Mach. Intel. 4, 669–677 (2022).

Artículo de Google Scholar

Wongvibulsin, S. Estrategias educativas para fomentar la diversidad y la inclusión en la inteligencia artificial. Nat. Mach. Intel. 1, 70–71 (2019).

Artículo de Google Scholar

Gupta, J. y col. La justicia del sistema Tierra era necesaria para identificar y vivir dentro de los límites del sistema Tierra. Nat. Sust. 1–9 https://doi.org/10.1038/s41893-023-01064-1 (2023).

Gunning, D. y col. XAI-Inteligencia artificial explicable. Ciencia. Robot. 4, (2019).

Rudin, C. Deje de explicar modelos de aprendizaje automático de caja negra para decisiones de alto riesgo y utilice modelos interpretables en su lugar. Nat. Mach. Intel. 1, 206–215 (2019).

Artículo de Google Scholar

Bécue, A., Praça, I. & Gama, J. Inteligencia artificial, ciberamenazas e Industria 4.0: desafíos y oportunidades. Artif. Intel. Rev. 54, 3849–3886 (2021).

Artículo de Google Scholar

Franzoni, V., Vallverdù, J. & Milani, A. Errores, sesgos y exceso de confianza en el modelado emocional artificial. en Conferencia internacional IEEE/WIC/ACM sobre inteligencia web - Volumen complementario 86–90 https://doi.org/10.1145/3358695.3361749 (Association for Computing Machinery, 2019).

Mosqueira-Rey, E., Hernández-Pereira, E., Alonso-Ríos, D., Bobes-Bascarán, J. & Fernández-Leal, Á. Aprendizaje automático humano-in-the-loop: un estado del arte. Artif. Intel. Rev. https://doi.org/10.1007/s10462-022-10246-w (2022).

Christiano, P. et al. Aprendizaje por refuerzo profundo a partir de las preferencias humanas. arXiv [estad.ML] (2017).

Hornsey, MJ y Lewandowsky, S. Un conjunto de herramientas para comprender y abordar el escepticismo climático. Nat. Tararear. Comportamiento. 6, 1454-1464 (2022).

Artículo de Google Scholar

Otto, IM y cols. Dinámica de inflexión social para estabilizar el clima de la Tierra para 2050. Proc. Nat. Acad. Ciencia. 117, 2354–2365 (2020).

Artículo CAS Google Scholar

Beckage, B., Moore, FC y Lacasse, K. Incorporación del comportamiento humano en el modelado del sistema terrestre. Nat. Tararear. Comportamiento. 6, 1493-1502 (2022).

Artículo de Google Scholar

Yang, VC y Sandberg, A. La inteligencia colectiva como infraestructura para reducir riesgos catastróficos globales amplios. arXiv [nlin.AO] (2022).

Debnath, R., van der Linden, S., Sovacool, BK y Alvarez, RM Facilitar la acción climática conductual a nivel de sistema utilizando la ciencia social computacional. Nat. Comportamiento humano. https://doi.org/10.1038/s41562-023-01527-7 (2023).

Schramowski, P., Turan, C., Andersen, N., Rothkopf, CA y Kersting, K. Los grandes modelos de lenguaje previamente entrenados contienen sesgos similares a los humanos sobre lo que está bien y lo que está mal hacer. Nat. Mach. Intel. 4, 258–268 (2022).

Artículo de Google Scholar

Donahue, K., Chouldechova, A. y Kenthapadi, K. Colaboración entre algoritmos humanos: lograr la complementariedad y evitar la injusticia. en 2022 Conferencia ACM sobre equidad, responsabilidad y transparencia 1639-1656. https://doi.org/10.1145/3531146.3533221 (Asociación de Maquinaria de Computación, 2022).

Lepri, B., Oliver, N. y Pentland, A. Máquinas éticas: el uso de la inteligencia artificial centrado en el ser humano. iCiencia 24, 102249 (2021).

Artículo de Google Scholar

Forbes, M., Hwang, JD, Shwartz, V., Sap, M. y Choi, Y. Química social 101: aprender a razonar sobre normas sociales y morales. arXiv [cs.CL] (2020).

Colas, C., Karch, T., Moulin-Frier, C. y Oudeyer, P.-Y. Internalización del lenguaje y la cultura para una IA autotélica similar a la humana. Nat. Mach. Intel. 4, 1068–1076 (2022).

Artículo de Google Scholar

Verganti, R., Vendraminelli, L. & Iansiti, M. Innovación y diseño en la era de la inteligencia artificial. J. Prod. Innovación. Administrar. 37, 212–227 (2020).

Artículo de Google Scholar

Webersinke, N., Kraus, M., Bingler, JA y Leippold, M. ClimateBert: un modelo de lenguaje previamente entrenado para textos relacionados con el clima. arXiv [cs.CL] (2021).

Weidinger, L. y col. Taxonomía de riesgos que plantean los modelos lingüísticos. en 2022 Conferencia ACM sobre equidad, responsabilidad y transparencia 214–229 https://doi.org/10.1145/3531146.3533088 (Asociación para Maquinaria de Computación, 2022).

Toreini, E. et al. La relación entre la confianza en la IA y las tecnologías de aprendizaje automático confiables. en Actas de la Conferencia de 2020 sobre Justicia, Responsabilidad y Transparencia 272–283 https://doi.org/10.1145/3351095.3372834 (Asociación para Maquinaria de Computación, 2020).

Birhane, A. y col. Los márgenes olvidados de la ética de la IA. en 2022 Conferencia ACM sobre equidad, responsabilidad y transparencia 948–958 https://doi.org/10.1145/3531146.3533157 (Asociación para Maquinaria de Computación, 2022).

Narayanan, A. Tutorial traslacional: 21 definiciones de equidad y sus políticas. en Equidad, Responsabilidad y Transparencia (2018).

Friedler, SA, Scheidegger, C. & Venkatasubramanian, S. La (im)posibilidad de la justicia: diferentes sistemas de valores requieren diferentes mecanismos para una toma de decisiones justa. Comunitario. JCA 64, 136-143 (2021).

Artículo de Google Scholar

Zafar, MB, Valera, I., Gomez-Rodriguez, M. & Gummadi, KP Restricciones de equidad: un enfoque flexible para una clasificación justa. J. Mach. Aprender. Res. 20, 1–42 (2019).

Google Académico

Barocas, S., Hardt, M. y Narayanan, A. Equidad y aprendizaje automático: limitaciones y oportunidades. (fairmlbook.org, 2019).

Deng, WH y cols. Explorando cómo los profesionales del aprendizaje automático (intentan) utilizar los kits de herramientas de equidad. en 2022 Conferencia ACM sobre equidad, responsabilidad y transparencia 473–484 https://doi.org/10.1145/3531146.3533113 (Asociación para Maquinaria de Computación, 2022).

Liao, QV y Sundar, SS Diseño para una confianza responsable en sistemas de inteligencia artificial: una perspectiva de comunicación. en 2022 Conferencia ACM sobre equidad, responsabilidad y transparencia 1257–1268 https://doi.org/10.1145/3531146.3533182 (Asociación para Maquinaria de Computación, 2022).

Knowles, B. & Richards, JT La sanción de la autoridad: promover la confianza pública en la IA. en Actas de la Conferencia ACM de 2021 sobre equidad, responsabilidad y transparencia 262–271 https://doi.org/10.1145/3442188.3445890 (Asociación de Maquinaria de Computación, 2021).

Ehsan, U., Liao, QV, Muller, M., Riedl, MO y Weisz, JD Ampliación de la explicabilidad: hacia la transparencia social en los sistemas de IA. en Actas de la Conferencia CHI de 2021 sobre factores humanos en sistemas informáticos https://doi.org/10.1145/3411764.3445188 1–19 (Asociación para Maquinaria de Computación, 2021).

Dibia, V. cocoafrica: una herramienta de curación y un conjunto de datos de objetos comunes en el contexto de África. (Github).

Adelani, DI et al. MasakhaNER: Reconocimiento de entidad nombrada para lenguas africanas. arXiv [cs.CL] (2021).

Greene, T., Martens, D. & Shmueli, G. Barreras a la investigación académica en ciencia de datos en el nuevo ámbito de la modificación algorítmica del comportamiento mediante plataformas digitales. Nat. Mach. Intel. 4, 323–330 (2022).

Artículo de Google Scholar

Ravuri, S. y col. Hábil predicción inmediata de las precipitaciones utilizando modelos generativos profundos de radar. Naturaleza 597, 672–677 (2021).

Artículo CAS Google Scholar

Ng, NYY, Gopalan, H., Raghavan, VSG & Ooi, CC Predicción meteorológica numérica híbrida independiente del modelo y paradigma de aprendizaje automático para la predicción solar en los trópicos. arXiv [cs.LG] (2021).

Uso del aprendizaje automático para 'pronosticar ahora' la precipitación en alta resolución. https://ai.googleblog.com/2020/01/using-machine-learning-to-nowcast.html?m=1.

Dwivedi, R. y col. IA explicable (XAI): ideas, técnicas y soluciones centrales. Computación ACM. Sobrevivir. 55, 1–33 (2023).

Artículo de Google Scholar

Cheong, S.-M., Sankaran, K. & Bastani, H. Inteligencia artificial para la adaptación al cambio climático. Conocimientos de minería de datos de WIRE. Descubrimiento. 12, e1459 (2022).

Artículo de Google Scholar

Agrawal, S. y col. Aprendizaje automático para la predicción inmediata de precipitaciones a partir de imágenes de radar. arXiv [cs.CV] (2019).

Yan, Y. et al. Aprovechar el poder del aprendizaje automático para la captura, utilización y almacenamiento de carbono (CCUS): una revisión de vanguardia. Entorno energético. Ciencia. 14, 6122–6157 (2021).

Artículo CAS Google Scholar

Wagner, F. y col. Utilizar el aprendizaje automático explicable para comprender cómo la forma urbana da forma a la movilidad sostenible. Transp. Res. Parte D: Trans. Reinar. 111, 103442 (2022).

Artículo de Google Scholar

Callaghan, M. y col. Evidencia basada en aprendizaje automático y mapeo de atribuciones de 100.000 estudios de impacto climático. Nat. Subir. Chang. 11, 966–972 (2021).

Artículo de Google Scholar

Alizadeh, T. Las implicaciones de la infraestructura de telecomunicaciones para la justicia espacial: el estado socioeconómico del despliegue temprano de la Red Nacional de Banda Ancha en Australia. En t. J. Crit. Infraestructura. 11, 278–296 (2015).

Artículo de Google Scholar

Delacroix, S. & Lawrence, ND Fideicomisos de datos ascendentes: perturbando el enfoque de "talla única" para la gobernanza de datos. En t. Privado de datos. Ley 9, 236–252 (2019).

Google Académico

Komljenovic, J. El futuro del valor en la educación superior digitalizada: por qué la privacidad de los datos no debería ser nuestra mayor preocupación. Alto. Educativo. 83, 119-135 (2022).

Artículo de Google Scholar

Langley, P. & Leyshon, A. Capitalismo de plataforma: la intermediación y capitalización de la circulación económica digital. Aleta. Soc. 3, 0 (2017).

Google Académico

Mills, S. ¿Quién es el dueño del futuro? Fideicomisos de datos, bienes comunes de datos y el futuro de la propiedad de datos. https://doi.org/10.2139/ssrn.3437936 (2019)

Pick, JB & Nishida, T. Brechas digitales en el mundo y sus regiones: un análisis espacial y multivariado de la utilización tecnológica. Tecnología. Pronóstico. Soc. Cambio 91, 1-17 (2015).

Artículo de Google Scholar

Sareen, S., Saltelli, A. & Rommetveit, K. Ética de la cuantificación: iluminación, ofuscación y legitimación performativa. Comunidad Palgrave. 6, https://doi.org/10.1057/s41599-020-0396-5 (2020).

Savona, M. El valor de los datos: hacia un marco para redistribuirlos. https://doi.org/10.2139/ssrn.3476668 (2019).

Brock, A., Sovacool, BK y Hook, A. Energía fotovoltaica volátil: industrialización verde, zonas de sacrificio y ecología política de la energía solar en Alemania. Ana. Asociación. Soy. Geogr. 111, 1756-1778 (2021).

Google Académico

Soja, EW Buscando justicia espacial. (Prensa de la Universidad de Minnesota, 2010).

Yenneti, K., Day, R. & Golubchikov, O. Justicia espacial y política territorial de las energías renovables: desposesión de comunidades vulnerables a través de megaproyectos de energía solar. Geoforo 76, 90–99 (2016).

Artículo de Google Scholar

Everitt, T., Lea, G. y Hutter, M. Revisión de la literatura sobre seguridad de AGI. arXiv [cs.AI] (2018).

Goertzel, B. Inteligencia artificial general: concepto, estado del arte y perspectivas de futuro. J. Artif. Gen. Intel. 5, 1–48 (2014).

Artículo de Google Scholar

Sovacool, BK & Furszyfer Del Rio, DD Tecnologías domésticas inteligentes en Europa: una revisión crítica de conceptos, beneficios, riesgos y políticas. Ren. Sust. Energía Rev. 120, 109663 (2020).

Artículo de Google Scholar

Furszyfer Del Rio, DD, Sovacool, BK y Martiskainen, M. ¿Controlable, aterrador o divertido? Explorando la dinámica de género de las preferencias de tecnología para el hogar inteligente en el Reino Unido. Res. energética. Soc. Ciencia. 77, 102105 (2021).

Artículo de Google Scholar

Sovacool, B., Furszyfer-Del Rio, DD y Martiskainen, M. ¿Puede la prosunción volverse peligrosa? Explorando sistemas de control y abuso doméstico en las casas inteligentes del futuro. Fronteras en la investigación energética 9, (2021).

Furszyfer Del Rio, DD, Sovacool, BK & Griffiths, S. Cultura, sostenibilidad energética y climática, y tecnologías domésticas inteligentes: una comparación de métodos mixtos de cuatro países. Clima energético. Cambio 2, 100035 (2021).

Artículo CAS Google Scholar

Milkoreit, M. ¿Puntos de inflexión social en todas partes?—Patrones y riesgos de uso excesivo. Wiley Interdisciplinario. Rev. Clim. Modificar https://doi.org/10.1002/wcc.813 (2022).

Juhola, S. y col. Puntos de inflexión social y límites de adaptación en el contexto del riesgo sistémico: conceptos, modelos y gobernanza. Frente. Subir. 4, (2022).

Granjero, JD et al. Puntos sensibles de intervención en la transición post-carbono. Ciencia 364, 132-134 (2019).

Artículo CAS Google Scholar

Lenton, TM y cols. Elementos de inflexión en el sistema climático de la Tierra. Proc. Nacional. Acad. Ciencia. EE.UU. 105, 1786-1793 (2008).

Artículo CAS Google Scholar

Milkoreit, M. y col. Definición de puntos de inflexión para la erudición sobre sistemas socioecológicos: una revisión de la literatura interdisciplinaria. Reinar. Res. Letón. 13, 033005 (2018).

Artículo de Google Scholar

Nyborg, K. y col. Normas sociales como soluciones. Ciencia 354, 42–43 (2016).

Artículo CAS Google Scholar

van Ginkel, KCH et al. Puntos de inflexión socioeconómicos inducidos por el cambio climático: revisión y consulta con las partes interesadas para investigaciones relevantes para las políticas. Reinar. Res. Letón. 15, 023001 (2020).

Artículo de Google Scholar

Descargar referencias

RD agradece el apoyo de Quadrature Climate Foundation (21-01-000149), Keynes Fund (JHVH) y Google Cloud Climate Innovation Challenge (2022). BKS agradece el apoyo de Investigación e Innovación del Reino Unido, así como el esquema JPI SOLSTICE 2020 a través del proyecto “Responsive Organizing for Low Emission Societies (ROLES)”, Acuerdo de subvención No. ES/V01403X/1. Los autores también agradecen al Profesor Adrian Smith y el Dr. Max Lacey-Barnacle de la Universidad de Sussex por inspirar el análisis sobre la justicia de datos.

Financiamiento de Acceso Abierto habilitado y organizado por Projekt DEAL.

Cambridge Zero y Departamento de Ciencias de la Computación y Tecnología, Universidad de Cambridge, Cambridge, CB3 0FD, Reino Unido

Ramit Debnath y Emily Shuckburgh

División de Humanidades y Ciencias Sociales, Instituto de Tecnología de California, Pasadena, CA, 91125, EE. UU.

Ramit Debnath

Instituto de Investigación Mercator sobre Bienes Comunes Globales y Cambio Climático, Berlín, 10829, Alemania

Félix Creutzig

Universidad Técnica de Berlín, Berlín, 10827, Alemania

Félix Creutzig

Centro de Tecnologías Energéticas, Departamento de Tecnología y Desarrollo Empresarial, Universidad de Aarhus, Aarhus, Dinamarca

Benjamín K. Sovacool

Unidad de Investigación de Políticas Científicas, Escuela de Negocios de la Universidad de Sussex, Brighton, Reino Unido

Benjamín K. Sovacool

Instituto para la Sostenibilidad Global, Departamento de Tierra y Medio Ambiente, Universidad de Boston, Boston, MA, EE. UU.

Benjamín K. Sovacool

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

RD y FC conceptualizaron el estudio. Todos los autores contribuyeron a la redacción y edición del manuscrito.

Correspondencia a Félix Creutzig.

Los autores declaran no tener conflictos de intereses.

Nota del editor Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Debnath, R., Creutzig, F., Sovacool, BK et al. Aprovechar la inteligencia humana y mecánica para la acción climática a nivel planetario. npj Clim. Acción 2, 20 (2023). https://doi.org/10.1038/s44168-023-00056-3

Descargar cita

Recibido: 17 de enero de 2023

Aceptado: 24 de julio de 2023

Publicado: 17 de agosto de 2023

DOI: https://doi.org/10.1038/s44168-023-00056-3

Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt