En los últimos meses nos hemos topado con varios avances tecnológicos como GPT-4, un modelo de lenguaje humanizado de la nueva versión de ChatGPT, de Open-AI, Que posee Inteligencia Artificial (IA) capaz de aprender con gran rapidez y responder a multitud de preguntas con una calidad asombrosa. Si bien estas capacidades resultan innegablemente útiles en muchos sentidos, los avances de la IA plantean numerosas inquietudes sobre el futuro de la civilización.
En una carta abierta publicada en el sitio web futurodelavida.org, Cientos de expertos proponen suspender durante seis meses las investigaciones sobre sistemas más potentes que GPT-4, del creador de ChatGPT y emiten una advertencia sobre el riesgo que los avances tecnológicos pueden causar a la humanidadAdemás, el mismo grupo pide la creación de organismos reguladores y la rendición de cuentas por los daños causados por la IA.
Según los expertos, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe planificarse y gestionarse con el cuidado y los recursos adecuados. Sin embargo, este nivel de planificación y gestión no se está materializando, a pesar de que en los últimos meses los laboratorios de IA se han visto envueltos en una frenética carrera por desarrollar e implementar mentes digitales cada vez más potentes que nadie, ni siquiera sus creadores, puede comprender, predecir ni controlar con fiabilidad.
En la carta, el grupo plantea varias preguntas como:
- ¿Hasta qué punto debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades?
- ¿Deberíamos automatizar todos los trabajos, incluidos los que nos satisfacen?
- ¿Deberíamos desarrollar mentes no humanas que eventualmente nos superarían en número, inteligencia, nos superarían y nos reemplazarían? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?
LEA TAMBIÉN: “Marketing a través de Inteligencia Artificial”
LEA TAMBIÉN: “10 ejemplos de la presencia de la IA en la vida cotidiana”
Los expertos insisten en que sólo se deben desarrollar sistemas de IA potentes cuando se esté seguro de que sus efectos serán positivos y sus riesgos serán manejables. En una declaración reciente, la OpenAI afirmó que en algún momento puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros y que para los esfuerzos más avanzados se acuerde limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos.
Por lo tanto, los expertos en la carta instan a todos los laboratorios de IA a suspender de inmediato el entrenamiento de sistemas de IA más potentes que GPT-4 durante al menos seis meses. Esta pausa debe ser pública y verificable, e incluir a todas las partes interesadas clave. Si dicha pausa no puede implementarse rápidamente, los gobiernos deben intervenir e instaurar una moratoria. También instan Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes.Estos protocolos deben garantizar que los sistemas que los respetan sean seguros más allá de cualquier duda razonable.
¿Deberían realmente los laboratorios pausar los avances en IA?
VER TAMBIÉN: La función de WhatsApp bloquea las conversaciones con contraseña.
VER TAMBIÉN: Chatbot y ChatGPT: ¿Cómo se relacionan?