Can read it in english

La Iniciativa de las Naciones Unidas para Ciudades Inteligentes y Sostenibles (U4SSC) es una plataforma global que promueve el intercambio internacional de conocimientos y la creación de alianzas estratégicas, orientadas a guiar a ciudades y comunidades en el cumplimiento de los Objetivos de Desarrollo Sostenible de la ONU.

Coordinada por la UIT, la UNECE y ONU-Hábitat, y respaldada por otros 16 organismos de Naciones Unidas, la U4SSC impulsa el desarrollo de políticas y estrategias institucionales que fomentan el uso de tecnologías digitales para acelerar la transformación digital y facilitar la transición hacia ciudades sostenibles e inteligentes. En este proceso, U4SSC brinda apoyo directo a los gobiernos locales para alcanzar sus metas y construir las comunidades del futuro.

Además, U4SSC actúa como plataforma internacional para promover políticas públicas que integren las TIC como herramientas clave en la evolución hacia ciudades inteligentes y sostenibles.

Has liderado varios entregables de U4SSC, entre ellos la publicación titulada «Principios Rectores para la Inteligencia Artificial en las Ciudades».

¿Podrías ofrecernos una visión general de esta publicación?

Ciertamente. El documento proporciona un marco integral sobre cómo las ciudades pueden integrar de manera responsable la inteligencia artificial en sus sistemas urbanos. Comienza destacando la tendencia global de rápida urbanización y los desafíos a alto nivel que conlleva, que van desde las presiones sobre la infraestructura hasta las demandas de sostenibilidad. Dado este contexto, las ciudades deben adoptar principios éticos de IA para asegurar que la tecnología se use, entre otros, de manera inclusiva, transparente y alineada con los valores públicos.

El núcleo del documento presenta un conjunto claro de principios que las ciudades pueden seguir al implementar la inteligencia artificial, acompañados de facilitadores prácticos para apoyar la implementación. Estos facilitadores se dividen en cuatro categorías clave que abarcan liderazgo y gobernanza, desarrollo de capacidades, facilitadores de sistemas urbanos, y plataformas e infraestructuras digitales. La guía avanza aún más al ofrecer a las ciudades opciones de gobernanza, modelos regulatorios, ejecutivos y de cumplimiento, que aclaran roles y responsabilidades para gestionar la implementación de la inteligencia artificial de manera ética y eficaz en los sistemas urbanos.

Además de los principios y las estructuras de gobernanza, el documento también presenta una variedad de alternativas de instrumentos de política adaptadas para la inteligencia artificial en contextos urbanos, lo que permite flexibilidad en función de las necesidades locales. Concluye delineando una metodología sencilla pero práctica de cuatro pasos que las ciudades deben seguir al implementar estos principios, transformando ideales abstractos en pasos concretos. Las reflexiones finales enfatizan la importancia de la aplicabilidad en el mundo real y alientan a los líderes urbanos a adaptar el marco a sus contextos únicos, asegurando que las iniciativas de inteligencia artificial realmente sirvan a los ciudadanos y a los objetivos de sostenibilidad urbana.

“La inteligencia artificial no solo debe hacer que las ciudades sean más inteligentes, sino también más equitativas, resilientes y humanas.”

¿Cuál es el alcance de esto?

El documento está específicamente diseñado para las administraciones de las ciudades, particularmente aquellas comprometidas en convertirse en más inteligentes y sostenibles, que buscan establecer principios rectores para el uso de la inteligencia artificial en contextos urbanos. En lugar de centrarse en soluciones técnicas o herramientas específicas de IA, el documento sirve como una guía fundamental para integrar prácticas de IA éticas y responsables en la gobernanza urbana y la prestación de servicios públicos. Está destinado a apoyar a las ciudades en la creación de sus propios marcos de IA que se alineen con sus valores locales, prioridades y etapa de desarrollo.

Es importante señalar que el documento no intenta catalogar una lista exhaustiva de aplicaciones de IA en ciudades inteligentes y sostenibles. Aunque incluye algunos ejemplos ilustrativos, su propósito principal es ofrecer orientación basada en principios, no prescribir soluciones tecnológicas específicas. Dada la naturaleza en rápida evolución de la IA y la diversidad de los entornos urbanos, intentar enumerar todos los posibles casos de uso de IA sería tanto impráctico como contraproducente. En cambio, el énfasis está en proporcionar un marco flexible que las ciudades puedan interpretar y adaptar según sea necesario.

También es inclusivo en su diseño: puede ser aplicado por ciudades de todos los tamaños, desde metrópolis digitales avanzadas hasta aquellas que apenas comienzan su viaje en inteligencia artificial. También es neutral en cuanto a la tecnología dentro del panorama más amplio de la IA, asegurando su relevancia en diferentes ecosistemas tecnológicos. Además de los principios rectores, el documento ofrece un menú de factores habilitantes, opciones de políticas y modelos de gobernanza que pueden ser adoptados y adaptados selectivamente por los gobiernos de las ciudades. Esto asegura que el marco se mantenga práctico, adaptable y relevante en diversas capacidades administrativas y contextos urbanos.

¿Qué papel crees que puede tener la inteligencia artificial en las ciudades?

La inteligencia artificial tiene el potencial de ser una de las fuerzas más transformadoras en la evolución de las ciudades modernas. Su papel va mucho más allá de la automatización: puede ayudar a las ciudades a volverse más eficientes, receptivas, inclusivas y sostenibles. Por ejemplo, la inteligencia artificial puede optimizar las redes de transporte público en tiempo real, mejorar la eficiencia energética en los edificios, proporcionar mejores servicios urbanos y mejorar la planificación urbana a través de análisis predictivos. Cuando se utiliza de manera reflexiva, permite a las administraciones de la ciudad asignar recursos de manera más estratégica y responder a desafíos como la congestión del tráfico, la contaminación o incidentes de emergencia con mayor rapidez y precisión.

Pero quizás el papel más poderoso que la IA puede desempeñar es en la habilitación de una toma de decisiones más inteligente. Al analizar grandes cantidades de datos de sensores, servicios digitales y comentarios de los ciudadanos, la IA puede generar información procesable que apoya la formulación de políticas basada en evidencia. Empodera a los líderes de la ciudad para identificar patrones, prever necesidades e incluso simular los impactos de las decisiones políticas antes de su implementación. De alguna manera, sirve como un sistema nervioso digital para la ciudad, haciendo posible pasar de la gobernanza reactiva a una gestión urbana proactiva.

Sin embargo, el papel de la IA en las ciudades también debe estar basado en principios éticos, transparentes y centrados en el ser humano. Sin los marcos de gobernanza adecuados, existe el riesgo de reforzar desigualdades, comprometer la privacidad o crear sistemas que sean opacos y no responsables. Por eso, el papel de la IA en las ciudades no es solo técnico, también es social y político. Debe implementarse de manera que se mantenga la confianza pública, se promueva la inclusión y se mejore la calidad de vida de todos los residentes. En esencia, la IA no solo debe hacer que las ciudades sean más inteligentes, sino también más equitativas, resilientes y humanas.

Privacidad

El derecho a la privacidad y la protección de datos personales es un derecho ampliamente reconocido por diferentes organizaciones internacionales, como la UE y la ONU, entre otras, que intentan llevar estos derechos a Internet. En un proceso de transformación digital como el que estamos viviendo, donde se generan enormes cantidades de datos, la inteligencia artificial representa una gran oportunidad para resolver problemas urbanos, aprovechando estos datos urbanos y algoritmos para automatizar la toma de decisiones.

Entonces, la pregunta:

Con la llegada de la inteligencia artificial, ¿está el fin de la privacidad más cerca que nunca, o por el contrario será un elemento clave para garantizarla?

Esa es una pregunta crítica y oportuna. La IA, por su propia naturaleza, prospera con datos, a menudo en grandes volúmenes y frecuentemente personales o sensibles. Así que sí, por un lado, el auge de las tecnologías de IA plantea riesgos significativos para la privacidad. Los algoritmos pueden procesar y cruzar datos a una velocidad y escala que antes eran inimaginables, haciendo posible inferir comportamientos, preferencias, identidades e incluso emociones, a veces sin consentimiento explícito. Sin fuertes salvaguardias, esta capacidad podría, de hecho, acercarnos a un mundo donde la privacidad individual sea severamente disminuida.

Sin embargo, también hay un argumento convincente a favor de lo contrario: que la IA, si se diseña y gobierna adecuadamente, puede convertirse en una herramienta poderosa para proteger la privacidad. Tecnologías emergentes como el aprendizaje federado, la encriptación homomórfica y la privacidad diferencial se están integrando en los sistemas de IA para permitir que los datos sean analizados sin ser expuestos. La IA también puede utilizarse para detectar automáticamente violaciones de datos, monitorizar el acceso a datos personales y hacer cumplir el cumplimiento de las regulaciones de privacidad. Así que, cuando se desarrolla con principios de privacidad desde el diseño y marcos éticos claros, la IA puede en realidad reforzar la protección de datos en lugar de socavarla.

En última instancia, si la IA erosiona o protege la privacidad depende de las decisiones que tomemos ahora, como cómo regulamos la IA, cuán transparentes son los sistemas y cuánto control mantienen los individuos sobre sus datos personales. La tecnología en sí es neutral; es cómo damos forma a su uso lo que determinará el resultado. En ecosistemas digitales bien gobernados, la IA puede ser parte de la solución, un facilitador de servicios seguros que respetan la privacidad. Pero en contextos mal regulados, podría impactar negativamente los derechos fundamentales. El camino que tomemos está completamente en nuestras manos.

“Con marcos adecuados, la IA puede convertirse en una herramienta poderosa para proteger la privacidad, no para socavarla.”

Equidad e inclusión

Los sistemas de IA pueden tomar decisiones que lo hacen en nuestro nombre, pero para obtener estas decisiones pueden verse influenciados por ciertos sesgos que son los que operan/realizan estos sistemas.

¿Cómo crees que debería tratarse este aspecto para que nadie se quede atrás en el trato igualitario de las personas?

Ese es uno de los desafíos éticos más urgentes en el despliegue de la IA. El sesgo en los sistemas de IA no se origina en la tecnología en sí; proviene de los datos con los que son entrenados, de las suposiciones realizadas durante el diseño del sistema y de las desigualdades del mundo real que los datos reflejan. Si no se controlan, estos sesgos pueden resultar en resultados discriminatorios en áreas críticas como la contratación, la policía, la vivienda o el acceso a servicios públicos, perpetuando o incluso amplificando las desigualdades sociales.

Abordar esto requiere una estrategia en múltiples capas. Primero, se debe reconocer y medir el sesgo de manera sistemática. Esto implica una auditoría rigurosa de los conjuntos de datos para asegurar que sean representativos y no incorporen desigualdades históricas. También significa evaluar los algoritmos con métricas de equidad y monitorizar continuamente sus resultados en entornos del mundo real. La transparencia es clave aquí. Las ciudades e instituciones que utilizan IA deben ser claras sobre cómo se toman las decisiones, qué datos se utilizan y qué salvaguardias están en su lugar.

En segundo lugar, necesitamos incorporar prácticas de diseño ético e inclusivo en cada etapa del desarrollo de la inteligencia artificial. Esto significa involucrar a diversos interesados, incluidas las comunidades marginadas, no solo como sujetos de datos, sino como co-creadores de los sistemas que les afectan. Los marcos reguladores deberían requerir evaluaciones de impacto y mecanismos de rendición de cuentas para garantizar que los despliegues de inteligencia artificial cumplan con los estándares de equidad, igualdad y derechos humanos.

En última instancia, el objetivo no es solo hacer que la IA sea neutral, sino hacer que sea activamente justa. Los sistemas de IA deben diseñarse no solo para evitar daños, sino para promover la inclusión, reducir la discriminación y garantizar que todas las personas, independientemente de su origen, sean tratadas con dignidad y justicia. Si tratamos la equidad como un principio de diseño, y no como un pensamiento posterior, entonces la IA puede ayudarnos a construir ciudades y sociedades más inclusivas.

“Si tratamos la equidad como un principio de diseño y no como un pensamiento posterior, la IA puede ayudarnos a
construir sociedades más inclusivas.”

Comprensible y transparente

Los sistemas de IA utilizan tecnologías sofisticadas y algoritmos matemáticos complejos que, en muchos casos, tienden a ser opacos, principalmente debido a su propio diseño.

¿Cómo crees que deberíamos actuar para asegurarnos de que el principio de transparencia y comprensión sea una realidad?

Esa es una preocupación esencial y uno de los pilares éticos fundamentales en la gobernanza de la IA. La complejidad y la naturaleza de «caja negra» de muchos sistemas de IA, particularmente los modelos de aprendizaje profundo, dificultan que incluso los expertos comprendan completamente cómo se toman las decisiones. Esta opacidad representa desafíos reales para la confianza, la responsabilidad y la supervisión adecuada. Para hacer de la transparencia y la comprensión una realidad, necesitamos abordar esto en varios frentes.

Primero, la transparencia debe integrarse en el proceso de diseño desde el principio, lo que a menudo llamamos “explicabilidad por diseño”. Los desarrolladores deben priorizar la creación de modelos que sean interpretables cuando sea posible, y cuando utilicen sistemas más complejos, deben proporcionar documentación sólida que explique el propósito del modelo, su lógica, limitaciones y caminos de decisión en un lenguaje claro. Las técnicas de IA explicable pueden ayudar a revelar la razón detrás de los resultados de un modelo, permitiendo tanto a expertos como a no expertos cuestionar y comprenderlos.

En segundo lugar, la transparencia institucional y la supervisión pública son útiles. Las ciudades que implementan inteligencia artificial, especialmente en el gobierno o los servicios públicos, deben divulgar cuándo se está utilizando IA, qué datos se utilizan y quién es responsable de sus resultados. Esto puede ser respaldado por evaluaciones de impacto algorítmico, registros públicos de sistemas de IA y mecanismos de auditoría independientes. La transparencia no es solo un problema técnico, es un problema de gobernanza.

Y finalmente, necesitamos democratizar la alfabetización en IA. Asegurar que el público en general, la sociedad civil y los tomadores de decisiones comprendan los conceptos básicos de cómo funciona la IA y lo que no hace es fundamental. Cuando las personas entienden mejor la IA, pueden hacer las preguntas correctas, exigir salvaguardas y participar en un diálogo público significativo. Así que, la transparencia no se trata solo de abrir el sistema de IA, sino de abrir la conversación. Así es como nos aseguramos de que la IA no opere en un vacío, sino al servicio de la sociedad.

“La transparencia no es solo un problema técnico,
es un problema de gobernanza.”

Evaluación

Los sistemas de IA deben ser evaluados constantemente para que se pueda alcanzar un cierto nivel de rendimiento que permita identificar algunas de las consecuencias futuras de estos sistemas.

¿Puedes decirnos algunas herramientas que nos ayuden a equilibrar el presente y el futuro en relación con la sostenibilidad de los sistemas de IA?

Esa es una pregunta excelente y muy visionaria. Asegurar la sostenibilidad de los sistemas de IA, tanto en términos de rendimiento como de impacto social a largo plazo, requiere una combinación de herramientas técnicas, éticas y de gobernanza. Primero y ante todo, la evaluación continua es clave. Esto implica no solo medir cuán bien funciona un sistema de IA hoy, sino también anticipar cómo puede comportarse o impactar en la sociedad a medida que evoluciona e interactúa con datos del mundo real, políticas y personas.

Un conjunto importante de herramientas proviene de los marcos de evaluación de impacto. Las Evaluaciones de Impacto Algorítmico, por ejemplo, son procesos estructurados que evalúan los riesgos y beneficios potenciales de un sistema de IA antes y durante su implementación. Estas evaluaciones abordan la equidad, la seguridad, la privacidad y los impactos sociales a largo plazo, lo que permite a los desarrolladores y a los responsables de políticas tomar decisiones informadas que consideren consecuencias futuras, no solo la utilidad a corto plazo.

En el lado técnico, los sistemas de monitorización y reentrenamiento de modelos son cruciales. Estas herramientas permiten seguir continuamente cómo está funcionando un modelo de IA en condiciones del mundo real a lo largo del tiempo y adaptarlo a nuevos datos o entornos cambiantes. En paralelo, se pueden utilizar análisis de escenarios y metodologías de previsión para imaginar y evaluar posibles resultados a largo plazo de la implementación de la IA en dominios específicos como la salud, la educación o la gestión urbana. Esto ayuda a alinear las decisiones de hoy con las realidades de mañana.

Y finalmente, no podemos ignorar la sostenibilidad ambiental. Los sistemas de IA, especialmente los modelos grandes, consumen recursos computacionales sustanciales. Herramientas como los paneles de seguimiento de carbono y los puntos de referencia de IA verde permiten medir y optimizar la huella energética de las tecnologías de IA. Equilibrar la eficiencia actual con la responsabilidad a largo plazo es una parte fundamental de la sostenibilidad de la IA.

En resumen, combinar la monitorización continua con la previsión ética y la conciencia ambiental ayuda a garantizar que los sistemas de inteligencia artificial sigan siendo tanto de alto rendimiento como socialmente responsables, tanto hoy como en el futuro.

¿Puedes contarnos algunos de los principios que permiten la autonomía humana en la IA que se han detectado?

Absolutamente. Proteger la autonomía humana es uno de los principios fundamentales en el desarrollo y la implementación responsable de la IA. A medida que estos sistemas se vuelven más capaces de influir en decisiones, comportamientos e incluso en políticas públicas, es esencial que la agencia humana siga siendo central. Hay varios principios clave que ayudan a garantizar que la IA fortalezca, en lugar de socavar, nuestra capacidad para tomar decisiones informadas, voluntarias e independientes.

Uno de los habilitadores clave es el principio de la intervención humana o supervisión humana significativa. Esto asegura que los humanos mantengan el control final sobre decisiones críticas, especialmente en áreas de alto riesgo como la justicia, la salud o la aplicación de la ley. La IA puede asistir, sugerir o analizar, pero la decisión final puede permanecer con un humano que entienda el contexto y las consecuencias. Este principio es especialmente importante para prevenir el sesgo de automatización, donde los humanos pueden seguir ciegamente las salidas generadas por la IA.

Otro habilitador importante es la transparencia y la explicabilidad. Para que los individuos ejerzan su autonomía, necesitan entender cómo se están tomando las decisiones y tener acceso a explicaciones claras. Esto también está relacionado con el consentimiento informado, mediante el cual los individuos comprenden verdaderamente qué datos están compartiendo y cómo se utilizarán.

Finalmente, el acceso a mecanismos de reparación y la posibilidad de impugnar son importantes. La autonomía incluye el derecho a cuestionar las decisiones tomadas por sistemas de IA. Establecer procesos claros y accesibles para la revisión, corrección o reversión empodera a las personas. Juntos, estos principios forman la columna vertebral de los sistemas de IA que defienden la dignidad, protegen los derechos individuales y empoderan a los humanos en lugar de reemplazarlos o anularlos. En resumen, la autonomía humana en la IA no es solo una característica de diseño, sino un imperativo importante.

“La autonomía humana en la IA
no es solo una característica de diseño, sino un imperativo.”

Metodología

Con respecto a la metodología que se ha llevado a cabo dentro del marco de la IA en las ciudades.

¿Puedes contarnos los pasos que has seguido para desarrollar los principios de la IA en las ciudades?

Ciertamente. El desarrollo de los principios de IA para las ciudades fue el resultado de una metodología rigurosa, colaborativa y basada en evidencia. Comenzó con un extenso proceso de comparación que involucró un profundo análisis comparativo de los marcos de gobernanza de IA existentes en todo el mundo. Esto incluyó examinar estrategias, políticas y enfoques reguladores adoptados por varias jurisdicciones, tanto nacionales como subnacionales, así como las mejores prácticas globales establecidas por organizaciones creíbles como la OCDE, la Comisión Europea, IEEE, UNESCO, entre otras. El objetivo era identificar los denominadores comunes, las brechas y las innovaciones en la ética de la IA y la implementación urbana.

A partir de esto, el proceso estuvo profundamente anclado en un compromiso inclusivo y participativo, particularmente con los miembros de la iniciativa United for Smart Sustainable Cities (U4SSC), que es una plataforma multilateral liderada por la ONU. Los representantes de los gobiernos municipales, la academia, el sector privado y la sociedad civil aportaron ideas, retroalimentación y perspectivas críticas para garantizar que los principios fueran tanto técnicamente sólidos como socialmente receptivos. Este entorno colaborativo ayudó a asegurar que los principios no fueran solo aspiracionales, sino que estuvieran fundamentados en las realidades operativas de las administraciones de las ciudades.

En las etapas finales, los principios borrador fueron revisados por las agencias relevantes de la ONU. El resultado es un conjunto de principios orientadores que están informados globalmente, son adaptables localmente y se construyeron a través de un proceso transparente, consultivo y metodológicamente sólido diseñado para apoyar a las ciudades en la navegación de la compleja intersección de la IA, la ética y la gobernanza urbana.


BIOGRAFIA

El Dr. Okan Geray

DR. OKAN GERAY
Asesor Senior de Estrategia de Ciudad Digital

El Dr. Okan Geray tiene más de 25 años de experiencia en roles de consultoría y asesoría en diversas industrias. Ha asesorado a varias organizaciones en los Países Bajos, Francia, Italia, Alemania, Sudáfrica, Turquía y Dubái. Trabajó en A.T. Kearney, una firma global de consultoría de gestión, durante 6 años y fue miembro del equipo central de Telecomunicaciones Globales y Alta Tecnología antes de unirse al Gobierno de Dubái en 2002. Ha trabajado como Asesor de Planificación Estratégica en el Gobierno Electrónico de Dubái, en el Gobierno Inteligente de Dubái, en la Oficina de Dubái Inteligente y recientemente en la Autoridad Digital de Dubái. Sus responsabilidades incluyen la Planificación Estratégica, la Gestión del Rendimiento Estratégico y la Toma de Decisiones Políticas, entre otras.

El Dr. Geray es el coordinador y líder del U4SSC (U4SSC es una iniciativa de la ONU coordinada por la ITU, la UNECE y UN-Habitat, y apoyada por otros 16 órganos de la ONU, que ayuda a desarrollar políticas y estrategias institucionales que fomenten el uso de tecnologías digitales para facilitar la transformación digital y facilitar la transición hacia ciudades sostenibles e inteligentes). Él está liderando varios grupos temáticos a nivel global para U4SSC, a saber, «Directrices sobre Estrategias para Ciudades Circulares», «Marco de Aplicación Científica para Ciudades», «IA en Ciudades», «Facilitar Ciudades Centradas en las Personas a través de la Transformación Digital» y «Bienestar Digital».

El Dr. Geray es el Co-Responsable del Grupo de Estudio 20 de la UIT, sobre «Evaluación y análisis de Ciudades y Comunidades Inteligentes y Sostenibles» y también Vice-coordinador del Grupo de Trabajo 1. Es el líder del Comité Directivo de la Iniciativa Global sobre Mundos Virtuales e IA – Descubriendo el Citiverso, que es cofundada por la UIT, UNICC y Digital Dubai. Es miembro del Grupo de Trabajo Conjunto de Ciudades Inteligentes IEC-ISO-ITU (J-SCTF). Co-dirigió el Grupo de Trabajo «Aspectos económicos, regulatorios y de competencia» en el Grupo de Estudio de la UIT sobre el metaverso (FG-MV). También fue Co-Organizador del Grupo de Trabajo sobre «Impacto de la Economía de Datos, Comercialización y Monetización», parte del Grupo de Estudio de la UIT sobre Procesamiento y Gestión de Datos.

El Dr. Geray tiene una doble titulación en Ingeniería Industrial y de Computación de la Universidad del Bósforo en Estambul, Turquía, una maestría en Ingeniería Eléctrica y un doctorado en Ingeniería de Sistemas y Control de la Universidad de Massachusetts en EE. UU. Ha publicado varios artículos en revistas y conferencias y fue profesor adjunto en gestión durante 15 años.

https://www.itu.int/en/publications/Documents/tsb/2024-U4SSC-Guiding-principles-artificial-intelligence-in-cities/index.html#p=1