INTELIGENCIA ARTIFICIAL (IA), algunos datos, III
DigitalMex - Periodismo Confiable
Publicado en Opinión

INTELIGENCIA ARTIFICIAL (IA), algunos datos, III

Martes, 27 Enero 2026 00:00 Escrito por 
Tumba Burros Digital Tumba Burros Digital Luis Escobar Ramos

Hasta el momento, sólo hemos hecho referencia a los grandes avances que se vienen dando en el campo de las inteligencias artificiales, algunas tecnologías que giran en torno de éstas y de los grandiosos inventores que han dado vida a todo lo que estamos viviendo en la materia; sin embargo, es menester destacar que existe otra parte que surge como necesidad y se ha dado en todo ámbito de desarrollo tecnológico a través de la historia; es decir, cuando surgen cuestiones novedosas, necesariamente se les debe dar orden a las cosas y para ello se crean grandes marcos regulatorios y, en el caso particular de las inteligencias artificiales (IA), no es la excepción.

Es debido a lo anterior que, para cerrar el tema, nos referiremos ahora a las regulaciones que se han generado a través del tiempo para regular a las IA.

De entrada, el 28 de enero de 1981 se creó el Convenio núm. 108 del Consejo de Europa, el cual fue referido a la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal y fue el primer instrumento internacional jurídicamente vinculante adoptado en el ámbito de la protección de datos.

Ya más recientemente y con el auge de las IA, en el espacio de la Conferencia de Asilomar se dio la formulación de 23 principios que están divididos en temas o preguntas de investigación; aquellos concernientes a la ética y valores y problemas a largo plazo.

El 9 de marzo de 2018 se creó el Grupo de Expertos en IA y la Alianza Europea en IA; de tal forma que la Comisión Europea se dio a la tarea de crear un grupo sobre inteligencia artificial que elaborara una propuesta de directrices sobre ética de la IA, basándose en la declaración de esta fecha del Grupo Europeo sobre Ética en la Ciencia y las Nuevas Tecnologías.

El 10 de abril del mismo año se creó la Declaración de cooperación en materia de inteligencia artificial, para lo cual 25 países europeos firmaron una Declaración de Cooperación en Inteligencia Artificial (IA).

El 25 de abril de 2018 se emitió el comunicado de prensa “Inteligencia Artificial para Europa”. En él, la Comisión Europea presentó una serie de medidas para poner la IA al servicio de los europeos e impulsar la competitividad de Europa en este campo; para ello, la Comisión propuso un enfoque triple con el objetivo de aumentar la inversión pública y privada en IA y garantizar un marco ético y legal adecuado.

En junio de 2018 se realizó el lanzamiento de la Alianza Europea de IA, misma que fue una iniciativa de la Comisión Europea para establecer un diálogo político abierto sobre la IA. La Comisión nombró a 52 expertos para el nuevo Grupo de Alto Nivel sobre IA.

El 7 de diciembre del ya mencionado 2018, la Comisión Europea publicó un comunicado de prensa relativo a la “IA hecha en Europa”; éste fue un plan que proponía acciones conjuntas para una cooperación más estrecha y eficiente entre los Estados miembros, en cuatro áreas clave: aumentar la inversión, hacer más datos disponibles, fomentar el talento y garantizar la confianza. En este mismo mes fue publicado un primer borrador de las directrices éticas para una IA confiable.

Ya el 8 de abril de 2019, el Grupo de Expertos de Alto Nivel sobre IA presentó las directrices éticas para una IA fiable, las que contenían un conjunto de siete requisitos clave que los sistemas de IA deben cumplir.

Otro hecho relevante se da el 21 de mayo de 2019, cuando el Consejo de la Organización para la Cooperación y el Desarrollo Económico (OCDE) sobre IA da a conocer una serie de recomendaciones, que son adoptadas por sus 38 miembros y ocho que no son parte de esa organización.

El 26 de junio, también de 2019, el Grupo de Expertos de Alto Nivel en IA lanza recomendaciones de políticas e inversión en IA e, inmediatamente, en diciembre del mismo año, este grupo propuso una versión revisada de la lista de evaluación (prueba piloto), acompañada de un prototipo de herramienta web, para ayudar a los desarrolladores e implementadores de IA a desarrollar sistemas confiables.

Un acto de suma relevancia se dio el 19 de febrero de 2020, cuando la Comisión Europea, con el objetivo de promover la adopción de la IA y abordar los riesgos asociados con su uso, propuso un “Libro Blanco” con opciones políticas y regulatorias hacia un ecosistema de excelencia y confianza.

Finalmente, el 17 de julio de 2020, luego de un proceso de plan piloto, el Grupo de Expertos de Alto Nivel en IA presentó su lista de evaluación final para Inteligencia Artificial confiable.

De igual forma, el 21 de abril de 2021 se dio a conocer una propuesta de Reglamento por el que se establecen normas en materia de IA, que vino a ser de gran realce no sólo en la Unión Europea, sino en el mundo; en él, la Comisión anunció esta propuesta de Reglamento sobre IA, con el objetivo de abordar los riesgos de usos específicos de la IA, clasificándolos en cuatro niveles diferentes: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo.

Infortunadamente, nuevamente se nos acabó el espacio por ahora; la siguiente semana concluiremos con este tema. Saludos cordiales.

Email: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
X: LUISESCOBARRAM6

Visto 109 veces
Valora este artículo
(0 votos)
Luis Escobar Ramos

Tumba burros digital