top of page

LA INTELIGENCIA ARTIFICIAL: LA REGULACIÓN DE SUS RIESGOS INACEPTABLES PARA ALCANZAR UN DESARROLLO RESPONSABLE Y SEGURO

Actualizado: 24 jun

Por Christian Careaga*

Publicado el 11/06/2024


Como ocurrió con el teléfono, la radio, la televisión, el internet o el móvil, la IA ha pasado de ser un experimento para convertirse en una inmensa cascada de contratos multimillonarios para la creación de nuevo armamento militar, un asunto que -dadas las características de esta tecnología- se puede ir de las manos a la hora de controlar las herramientas de guerra de funcionamiento autónomo.


Introducción

El cifrado de mensajes durante la Segunda Guerra Mundial, mediante ingenios como Enigma, puede considerarse como el inicio de una serie de nuevas máquinas llamadas pensantes, que son capaces de operar con algoritmos, modelos, lenguajes o ideas, para –a partir de una base amplia de datos- ser capaces de jugar al ajedrez, escribir poemas, hacer las tareas del colegio, gestionar los recursos naturales o incluso plantearse estrategias militares.

Se supone que hoy en día las máquinas pueden aprender automáticamente utilizando datos digitales, hasta el punto de hacerse independientes de los humanos, quienes tarde o temprano no serán capaces de controlarlas.

A medida que los ordenadores se hacen más sofisticados y potentes, la llamada Inteligencia Artificial (IA) se ha ido aplicando a nuevos campos de la ciencia, como la robótica, el lenguaje o la visión por computadora. Indudablemente, la IA ha ayudado a los médicos a prevenir enfermedades o a los banqueros a detectar fraudes, mejorar los análisis de riesgo o las carteras financieras de sus clientes. El sector del transporte lleva años mejorando los sistemas de seguridad, hasta el punto de que los vehículos o aviones puedan decidir las acciones a realizar por ellos mismos, sin necesidad de un conductor.

Detrás del desarrollo de la IA hay poderosas entidades como Apple, Amazon, Microsoft, Nvidia, Facebook, Twitter, Alphabet, Meta, Baidu, Tencent, Alibaba, Huawei, ZTE… Fundamentalmente grandes multinacionales americanas y chinas de tecnología punta, especializadas en diversas áreas como el comercio de productos, la logística y distribución, los servicios de internet y de la inteligencia artificial están fomentando no solamente nuevos negocios, sino también aumentando la productividad de las empresas ya existentes.  Otros países, como Canadá o Japón también compiten por hacerse un hueco de cara al brillante futuro de la evolución tecnológica en ciernes en el campo de la IA.

Todas estas empresas ven en los avances tecnológicos pingües beneficios. Sin embargo, la otra cara de la moneda es el control y la manipulación de los datos por un puñado de gigantescas empresas.

Sean firmas chinas, americanas o de otra nacionalidad, su forma de entender nuestra sociedad mundial es lógicamente sesgada. Precisamente, son estas grandes empresas multinacionales y sus gobiernos quienes -mediante bulos y engaños- facilitan la manipulación de las masas a través de las redes y medios de comunicación. Y no se trata solamente de bulos o de fotos retocadas que circulan por los medios sociales con el ánimo de desinformar y engañar a una comunidad mundial que acude ingenua a los motores de búsqueda de todo tipo de información, sea noticias, imágenes o canciones.

Poco a poco los ordenadores han ido alcanzando las mismas capacidades que el ser humano. Ciertamente, este avance tecnológico tiene algo de misterioso, pues resulta que no será en buena medida la mente humana, sino la inteligencia de un sistema artificial -lógico y racional- quien va a dar forma al futuro. De ahí la importancia de los lenguajes y de los programas a emplear.

De momento los programadores son en buena parte humanos, si bien los filtros para evitar la tergiversación de los mensajes brillan por su ausencia. Estos programadores pretenden que las computadoras aprendan por sí mismas de forma automatizada. De igual modo, las máquinas pueden predecir el éxito o fracaso de un proyecto comercial o mejorar los rendimientos agrícolas, sin necesidad de recibir los datos de seres humanos, sino haciendo ellas mismas la captura de la información que precisan.

El uso de malos datos, traerá consigo la toma de malas decisiones. Dada la importancia de las actividades a promover a escala mundial mediante el uso de la IA, el empleo de estas sofisticadas máquinas, debiera de estar debidamente vigilado, con el fin de que únicamente fueran utilizadas con fines éticos y loables.  


Riesgos de la Inteligencia Artificial

Por supuesto que el uso de la IA aporta grandes beneficios sociales a nuestra sociedad. Sin embargo, muchos opinan que la falta de transparencia, el empleo de prejuicios o de la discriminación, la falta de respeto a la privacidad, la búsqueda de concentración de poder, la manipulación de la información o imágenes, los ciberataques o la suplantación de la identidad son claros ejemplos de problemas éticos sociales que ya se están dando en la actualidad.

No todas las actividades asociadas a la IA son peligrosas. Vemos en la pirámide mostrada a continuación una sencilla clasificación de riesgos posibles.



En los próximos años veremos cómo se van a desarrollar los innumerables campos de aplicación de la IA, pues de momento estamos en una fase preliminar de una tecnología que se vislumbra va a ser muy disruptiva a nivel laboral y social, por su potencial para cambiar el rumbo de las próximas innovaciones en el mundo. En la etapa actual, las IAs se construyen sobre algoritmos extensos, mas estamos ante los primeros pasos. Miles de investigadores compiten siguiendo las reglas existentes, las cuales indudablemente podrán modificarse.

Ya existen sistemas de IA de comprensión de contextos y situaciones que interactúan con los seres humanos. Los sistemas de pensamiento y razonamiento de la IA pueden ofrecer soluciones específicas a problemas de larga y difícil comprensión humana. Evidentemente, a medida que vayan auto-evolucionando las diversas IAs, éstas podrán llegar a funcionar con gran independencia.   

 

La futura IA General (AGI) -un concepto aún en desarrollo- implica un nivel de IA que sobrepasará claramente a la capacidad cognitiva humana. Cuando se alcance  este nivel, las cuestiones éticas y de seguridad del desarrollo de esta tecnología comenzarán a ser más preocupantes. 

¿Cómo afectará el uso de la IA al poder político, al control social o a las políticas de defensa? Pudiera ocurrir que el control y la gestión de la población mundial fuera efectuado por ingenios o artefactos cuyo razonamiento fuera más allá del pensamiento humano. Esos artilugios podrían adoptar decisiones tomando lo mejor... o lo peor... de las bases de datos de internet.

Una Carta Abierta de científicos y empresarios publicada en 2023 solicitó una moratoria de seis meses para estudiar los riesgos de la IA si se implementa incorrectamente por supuestas mentes digitales que ni siquiera sus creadores pueden entender. ¿Qué pasaría si las máquinas dieran respuestas fuera de control, llevando a la humanidad a un punto de no retorno,  a un mundo caótico?

Varios países han procedido a regular los usos de la IA, entre ellos los EE.UU., China y los pertenecientes a la Unión Europea.  Si se saltan los estándares de ética a la hora de la implementación de una tecnología inédita, que supera a las capacidades humanas, las consecuencias podrían ser muy graves.


 Diálogo  sobre IA militar entre China y los EEUU

El pasado 14 de mayo de 2024 se reunieron en Ginebra representantes militares del más alto nivel de los Estados Unidos y China para debatir sobre el actual desarrollo de la IA en el ámbito de la defensa, con el fin de determinar cuál podría ser la forma más conveniente de gestionarla. Ambas partes coincidieron en señalar la importancia de la IA tanto en el terreno militar como en el de la economía.

En la reunión intergubernamental, que recuerda a las que hubo en tiempos del G-2, solamente americanos y chinos plantearon sus propuestas y los demás países quedaron excluidos de opinar. Por ejemplo, la Unión Europea no fue invitada a participar, dada su escasa importancia a nivel geoestratégico. A pesar de sus inminentes y claros riesgos, no se negociaron los graves temas de los serios peligros asociados a esta amenazante tecnología emergente, sino más bien se presentaron puntos de vista de los representantes de ambas naciones.

Uno de los asuntos clave sobre la mesa fue el de acordar que solo los humanos tomarían decisiones sobre el despliegue de armas nucleares. De momento y lamentablemente, parece estar lejos el planteamiento de una colaboración técnica. Asimismo queda abierta cuáles serán las políticas de protección tecnológica a negociar.


La negociación bilateral sobre cómo evitar un indeseado conflicto duró 7 horas

Los EE.UU. ya piensan en resguardarse -mediante barreras comerciales y de otro tipo- de los modelos de IA patentados en China. Por su parte, la delegación china planteó que “las reglas sobre IA fueran decididas por todos los países y no dictadas por los países desarrollados”.

Ambas partes coincidieron en plantearse un consenso global para un desarrollo  responsable y seguro de la IA. De las recomendaciones y conclusiones de esta reunión de alto nivel saldrán más adelante algunas iniciativas legislativas.

¿Quién va por delante en esta carrera tecnológica que tanto va a afectar al resto del mundo?

Si bien parece ser que los EE.UU. van por delante en el desarrollo de la inteligencia artificial, es posible que los avances chinos en otras áreas, como la tecnología 6G o la computación cuántica, lleven en pocos años a resultados sorprendentes asociados con la IA.

China avanza muy rápido tecnológicamente y puede apoyarse para su I&D en sus nuevos inventos, maquinaria y patentes, recursos naturales, así como en el acceso a los códigos abiertos (open source) existentes en internet. Además, los avances en las construcciones del hardware y en las programaciones de software, junto a la actual batalla por controlar la producción y los mercados de los chips y semiconductores, van a ser también determinantes en el diseño de nuevo armamento y sistemas de defensa a medio plazo. 

 

Desde los tiempos de la presidencia de Donald Trump, se han ido implementando innumerables obstáculos al comercio y a la inversión de productos de alta tecnología en el ámbito de las telecomunicaciones: restricciones a la importación de productos chinos, barreras arancelarias, la prohibición de adquirir empresas nacionales norteamericanas asociadas a la seguridad nacional, el bloqueo de las relaciones comerciales entre empresas del sector, la vigilancia de empleados chinos contratados en los EE.UU. para evitar el espionaje industrial...

Las vallas proteccionistas colocadas son muy altas. Ambos estados están dando abundantes subvenciones a este sector estratégico. Así, las inversiones de las multinacionales americanas y chinas dedicadas al sector de los microchips alcanzan frecuentemente cifras superiores a los mil millones de euros.

La definición de una política de autosuficiencia está en la base de los futuros desarrollos de la tecnología en el ámbito de la IA. Ambas naciones se han orientado hacia la autarquía, lo cual puede llevara los consumidores mundiales a encontrarse  a medio plazo con dos sistemas operativos lejanos e incompatibles.

Sin embargo, como señala el título de este artículo, es preciso mantener un máximo  nivel de ético allí en donde justamente la IA puede ser más peligrosa: en su empleo en el campo militar.



*Nota: Las ideas contenidas en las publicaciones de Cátedra China o de terceros son responsabilidad de sus autores, sin que reflejen necesariamente el pensamiento de esta Asociación.

 



Entradas destacadas
Entradas recientes
Archivo
Buscar por tags
Síguenos
  • Twitter Basic Square
  • Facebook Basic Square
  • Icono social LinkedIn
  • Canal de Youtube- Cátedra China
  • Twitter - círculo blanco
  • Facebook - círculo blanco
  • LinkedIn - círculo blanco

Política de Privacidad 

/ Privacy Policy

Política de Cookies

/ Cookies Policy

Aviso Legal

/ Legal Notice

Copyright© www.catedrachina.com | Cátedra China 2022. Todos los derechos reservados / All rights reserved.
bottom of page