Regulación y control de la inteligencia artificial desde el derecho internacional público: retos e iniciativas
...
Quintero Benavides, Paula Andrea | 2025
Por medio de este artículo se busca definir los principales retos y oportunidades que se dan en el marco internacional para llevar a cabo la implementación de una serie de acuerdos universales que puedan llegar a mitigar los riesgos regulen en el uso de las IA poniendo ciertos límites que no frenen su crecimiento exponencial y así mismo que no transgredan los intereses internos de cada Estado. Como objetivos específicos se busca identificar las iniciativas que vienen implementando las comunidades internacionales así como los Estados potencia para empezar a mitigar ese riesgo usando la herramienta de inteligencia artificial de una manera ética. Adicionalmente identificar los retos que representa para toda la comunidad global acogerse a un marco normativo universal que permita dar espacio a un nuevo tipo de sociedad que va apoyada más a las herramientas tecnológicas pero sin descuidar los derechos fundamentales y la autonomía de cada Estado en sus normas y forma de gobierno. La investigación se abordó desde un enfoque cualitativo, utilizando como método de estudio el análisis documental descriptivo, revisando informes de organismos internacionales con competencia en el tema, así como también artículos académicos y opiniones de los principales medios de comunicación de algunos Estados influyentes. La elección de este enfoque se justifica por la necesidad de comprender un fenómeno complejo, en constante evolución y con múltiples implicaciones jurídicas y sociales.
La evolución que ha tenido la IA ha permitido avances significativos en sectores como la salud, la educación, la industria y la seguridad, pero también ha expuesto riesgos asociados a la privacidad, el error del algoritmo, la automatización del empleo y el uso de la IA en conflictos entre Estados. En medio de este vacío legal ante una herramienta que se volvió parte de las necesidades de la sociedad actual los Estados y organismos internacionales han tomado diferentes puntos de vista y posturas frente al tema, estas posturas en algunos casos contrarias, lo que ocasiona un gran reto para la creación de una regulación que tenga mecanismos efectivos de cumplimiento, ejecución y control y que no transgreda las normativas ya vigentes, que llegue a contribuir con las necesidades y preocupaciones de cada Estado de manera particular.
La última década, organismos internacionales y gobiernos han comenzado a desarrollar algunas estrategias que permitan equilibrar la innovación tecnológica con la protección de derechos fundamentales. La Unión Europea, China y Estados Unidos han tomado la delantera en la elaboración de algunas pautas o limitaciones para su uso, mientras que otros organismos internacionales como la ONU, la OCDE y la UNESCO buscan incentivar los principios éticos como pilar para brindar un desarrollo y uso responsable para la inteligencia artificial. Sin embargo, la ausencia de estándares unificados a nivel global sigue siendo un dilema crucial en el desarrollo de la IA responsable para los seres humanos. Además, se proponen algunas iniciativas que involucren más cooperación internacional y el diseño de regulaciones adaptables a las normativas internas de cada Estado que permitan mitigar los riesgos asociados a la IA definiendo sus alcances sin frenar su potencial innovador.
Palabras Clave
Inteligencia Artificia
LEER