Mundo

La tortuga reguladora y la liebre IA

– La regulación de la tecnología suele surgir algún tiempo después de su uso en un producto o servicio, o peor aún, surgen los riesgos. Este enfoque receptivo es lamentable cuando ya se está causando un daño real, como ocurre ahora con la IA. Con un riesgo existencial, el enfoque pondría fin a la vida humana en riesgo.

En los últimos meses, los sistemas de generación de inteligencia artificial (IA) como ChatGPT y GPT4 están disponibles sin ningún control regulatorio (oficial). Esto está en marcado contraste con los nuevos juguetes de pato de plástico que tienen que cumplir con muchas normas y estándares de seguridad. La realidad es que la liebre de IA está empujando hacia adelante mientras que la tortuga de control se está moviendo pero muy atrás. Esto tiene que cambiar – ahora.

Lo que ha sorprendido a los expertos en inteligencia artificial de todo el mundo es el progreso reciente de GPT 3.5 a GPT 4. En unos pocos meses, la capacidad de GPT ha mejorado mucho en múltiples pruebas, por ejemplo, en los exámenes de American Bar en el rango del percentil 10 para alcanzar el percentil. rango. percentil 90 con GPT-4.

¿Por qué es importante?, te preguntarás. Si la tasa de progreso se proyectara al mismo ritmo durante los próximos 3, 6 o 12 meses, esto conduciría rápidamente a una IA muy poderosa. Si no se controla, esta IA podría tener el poder no solo de hacer mucho bien, sino también mucho daño, y con el riesgo mortal de volverse incontrolable una vez que esté libre.

Hay una amplia gama de aspectos de la IA que necesitan o necesitarán regulación y control. Aparte de los nuevos Large Language Models (LLM), ya existen muchos ejemplos en la actualidad, como los modelos de redes sociales centrados en la atención, la imitación profunda, el sesgo y el uso abusivo de la vigilancia controlada por IA.

Estos podrían conducir a un cambio radical en nuestra relación con el trabajo y la extinción de ciertos trabajos, incluidos los de oficina, que hasta ahora han sido en gran medida inmunes a la automatización. También se espera que pronto los expertos artificiales intenten convencerlo de que compre algo o piense o vote de cierta manera, un proceso que algunas personas ya han comenzado.

La tortuga reguladora y la liebre IA, Tu Mundo al dia

Si no se controla, el progreso hacia una IA cada vez más inteligente conducirá a la Inteligencia Artificial General (AGI, igual a la capacidad humana en una amplia gama de campos) y a la Superintendencia (inteligencia muy superior). El mundo estaría entrando en una era que indicaría el declive humano y la probable extinción a medida que perdamos nuestra posición como el vértice de la inteligencia en el planeta.

Esta tasa de progreso reciente ha provocado que Yoshua Bengio y Geoffrey Hinton, conocidos como los «padrinos de la IA/aprendizaje profundo», reevalúen por completo su marco de tiempo proyectado para el desarrollo de AGI. Recientemente, ambos han avanzado radicalmente en sus estimaciones y ahora evalúan el logro de AGI en 5 a 50 y 5 a 20 años respectivamente.

La humanidad no debería estar en riesgo de extinción a sabiendas, lo que significa que los humanos deben establecer controles antes de que se desarrolle la IA alta. Se han propuesto soluciones para controlar la IA avanzada, como la IA beneficiosa de Stuart Russell, donde la IA tiene como objetivo implementar las elecciones humanas. Tendría que respetar esas elecciones y dado que entendería que tal vez no las haya interpretado con precisión, sería humilde y estaría listo para apagarse.

Es un gran desafío desarrollar un sistema de este tipo en la práctica. Era dudoso que tal solución estuviera disponible a tiempo incluso antes del último salto de la liebre. La clave ahora es si uno estará disponible a tiempo, razón por la cual Geoffrey Hinton sugirió que el 50% del gasto en investigación de IA debería estar en AI Safety.

Aparte de estas soluciones integrales pero desafiantes, hay una serie de ideas pragmáticas que se han propuesto recientemente para reducir el riesgo, que van desde limitar el acceso al poder computacional para un modelo de lenguaje grande hasta la creación de una agencia de IA equivalente a International Energy. Agencia Atomic en Viena. En la práctica, se necesita una combinación de soluciones técnicas como la IA beneficiosa, soluciones pragmáticas relacionadas con el desarrollo de la IA y un marco de gobernanza adecuado.

Porque los sistemas de IA, como muchos de los servicios de software actuales en las nubes informáticas, pueden actuar a través de las fronteras. La interoperabilidad será un desafío clave y existe una clara necesidad de un enfoque global para la gobernanza. Para tener legitimidad global, tales iniciativas deben ser parte de un plan de acción coordinado administrado por un organismo global apropiado. Eso debería ser las Naciones Unidas, estableciendo la Convención Marco de las Naciones Unidas sobre Inteligencia Artificial (UNFCAI).

Los acuerdos vinculantes que actualmente se espera que surjan dentro de los próximos doce meses son la Ley de IA de la Unión Europea y la Convención Marco sobre Inteligencia Artificial del Consejo de Europa. El trabajo del Consejo de Europa se centra en el impacto de la IA en los derechos humanos, la democracia y el estado de derecho. Aunque la participación en los Tratados del Consejo de Europa es mucho más amplia que la Unión Europea y otros países son bienvenidos como signatarios, el alcance no es realmente global.

La principal ventaja de la ONU es que buscaría incluir a todos los países, incluidos Rusia y China, que tienen conjuntos de valores diferentes a los de Occidente. China tiene uno de los dos sectores de IA más fuertes del mundo. Muchos creen que eventualmente será necesario un régimen de la ONU, pero el término «eventualmente» se ha invertido por completo debido a los acontecimientos recientes. La posibilidad de que AGI surja en 5 años sugiere que un régimen debería estar en pleno funcionamiento para entonces. Se podría encontrar un hogar institucional más modesto en el G7, pero esto carecería de legitimidad global, inclusión y participación de la sociedad civil.

A algunas personas les preocupa que al comprometerse de manera constructiva con China, Rusia y otros países autoritarios, esté validando su enfoque de los derechos humanos y la democracia. Claramente, existen grandes diferencias en la política sobre estos temas, pero tales preocupaciones no deberían poner en peligro la gobernanza efectiva de algo tan serio como la Inteligencia Artificial.

En los últimos años, la ONU ha logrado avances limitados en IA. En 2020, el Secretario General pidió el establecimiento de un organismo asesor de múltiples partes interesadas sobre cooperación global en inteligencia artificial. Todavía propone una junta asesora similar tres años después. Este retraso es lamentable y debe remediarse con urgencia. Por lo tanto, es muy alentador ver las recientes propuestas sólidas realizadas por el Secretario General en los últimos días con respecto a la gobernanza de la IA, incluido un Acuerdo sobre la gobernanza global de la IA.

La comisionada de la UE, Margrethe Vestager, ha pedido un proceso de tres etapas, a saber, estados nacionales, luego estados afines y luego la ONU. La pregunta es si hay suficiente tiempo para los tres. Un avance positivo es el reciente respaldo por parte del Secretario General de la ONU de la iniciativa propuesta de la Cumbre de Seguridad de la IA del Reino Unido en el Reino Unido este otoño.

El Foro de Gobernanza de Internet (IGF) se estableció en 2005 y sirve para reunir a personas de diferentes grupos de partes interesadas como iguales, para discutir temas relacionados con Internet. En el caso de AI, un foro de este tipo, el Foro de Gobernanza de Múltiples Partes Interesadas de AI (AIGF, por sus siglas en inglés) podría ser útil para la formulación de políticas.

Esto proporcionaría un foro inicial donde las partes interesadas de todo el mundo podrían intercambiar puntos de vista sobre los principios a seguir, los aspectos de la IA que requieren una gobernanza global urgente de la IA y las formas de resolver cada problema. Lo que se necesita con urgencia es una hoja de ruta clara para la gobernanza mundial de la IA con un cronograma sólido.

AIGF podría apoyar el trabajo del nuevo organismo asesor de alto nivel para la IA y ambos tendrían la tarea de desarrollar la hoja de ruta, que conduzca al establecimiento de la Convención Marco de las Naciones Unidas sobre la IA.

En los últimos meses, la liebre de IA ha demostrado su capacidad para recorrer un largo camino en un corto período de tiempo. La tortuga reglamentaria ha salido de la línea de salida pero hay mucho que ponerse al día. La duración de la carrera acaba de acortarse, por lo que correr la liebre recientemente es una gran preocupación. En la fábula de Esopo, la tortuga finalmente gana la carrera porque la liebre demasiado confiada se ha echado una siesta al borde del camino. La humanidad no debe asumir que la IA hará lo mismo.

Se necesita un esfuerzo conjunto para completar la Ley de IA de la UE y el Convenio Marco del Consejo de Europa sobre IA. Mientras tanto, en la ONU, las partes interesadas deben reunirse con urgencia para compartir sus puntos de vista y trabajar con los estados para establecer una estructura de gobernanza de IA global, oportuna y efectiva.

Se debe comunicar el Acuerdo de las Naciones Unidas sobre la gobernanza de la IA y se debe dar la máxima prioridad mundial a la perspectiva de una gobernanza mundial eficaz y oportuna en la era de la seguridad de la IA. La cumbre de seguridad de IA prevista en el Reino Unido este otoño debería proporcionar el primer punto de control.

Roberto Whitfield Presidente de One World Trust y Presidente del Grupo de Trabajo Transnacional sobre IA del Movimiento Federalista Global/Instituto de Políticas Gubernamentales.

Oficina de las Naciones Unidas

Editorial TMD

Amplia experiencia en el campo informativo. Recogemos las noticias más importantes alrededor del mundo de las fuentes oficiales para ti. En tu Mundo al Día monitoreamos el acontecer global y recogemos los testimonios y comentarios de las fuentes originales resumidas para ti en este portal.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información básica sobre protección de datos
Responsable Jacinto Pabón Rodarte +info...
Finalidad Manage and moderate your comments. +info...
Legitimación Consentimiento del interesado. +info...
Destinatarios Automattic Inc., EEUU para filtrar el spam. +info...
Derechos Acceder, rectificar y suprimir los datos, así como otros derechos. +info...
Información adicional Puedes consultar la información adicional y detallada sobre protección de datos en nuestra página de política de privacidad.

Botón volver arriba