En una carta abierta, Elon Musk y otros expertos piden que se detenga inmediatamente y por seis meses el desarrollo de modelos de inteligencia artificial más potentes que GPT4, alegando “peligros para la humanidad“.
La inteligencia artificial avanzada puede representar un hito en la historia de la vida en la Tierra, y por lo tanto su desarrollo debe ser planeado y gestionado con cuidado.
Los sistemas actuales de inteligencia artificial están comenzando a alcanzar la capacidad de los seres humanos en tareas genéricas, y esto nos debe llevar a preguntarnos:
- ¿Es acaso prudente automatizar todos los trabajos, incluidos aquellos que nos dan satisfacción?
- ¿Deberíamos desarrollar mentes no humanas que con el tiempo podrían superarnos en número e inteligencia hasta volvernos innecesarios y luego reemplazarnos?
- ¿Tiene sentido arriesgarnos a perder el control de nuestra civilización?
Parece ciencia ficción pero es real. Y a mi juicio, completamente sensato. La carta continúa señalando que:
OpenAI ha afirmado que en algún momento quizá sea ser necesario establecer un sistema de revisión independiente antes de desarrollar nuevos sistemas, y a la vez poner un límite a los recursos que se utilicen para crear modelos nuevos.
ESTAMOS DE ACUERDO. ESE MOMENTO ES AHORA.
Por lo tanto, hacemos un llamamiento a todos los laboratorios de inteligencia artificial para que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4.
Esta pausa debe ser pública y verificable, e incluir a todos los desarrolladores. Si esta pausa no se ejecuta rápidamente, los gobiernos deben intervenir y exigir un freno ahora.
Los laboratorios de IA y los expertos independientes deben aprovechar esta pausa para desarrollar protocolos de seguridad para el diseño y desarrollo de IA avanzada que puedan ser auditados y supervisados por expertos externos independientes.
Esto no implica una pausa en el desarrollo de la inteligencia artificial en general, sino simplemente un freno en lo peligrosa carrera hacia modelos opacos e impredecibles cada vez más grandes y con capacidades emergentes potencialmente desconocidas.
Los investigadores y desarrolladores de inteligencia artificial deben redirigir sus energías y enfocarse en lograr que los sistemas actuales de última generación sean más precisos, seguros, comprensibles, transparentes, robustos, confiables y leales.
Nuestra sociedad ya ha puesto en pausa en el pasado a otras tecnologías cuyos efectos podrían haber sido potencialmente catastróficos para la humanidad. Eso – afirman- es exactamente lo que podemos hacer ahora.
Esta carta quizá pase a los libros de historia. A mi me recuerda a la petición que Linus Pauling y su esposa presentaron ante las Naciones Unidas en 1958, con las firmas de 11.000 científicos para que se detengan las pruebas de armas nucleares.
Pase lo que pase, es un hito en la historia. Estas tecnologías tienen el potencial de mejorar rápida y drásticamente nuestra existencia, para bien.
Pero si no somos cuidadosos, podemos estar abriendo una caja de pandora que desate cambios impredecibles, genere disrupciones masiva en nuestras sociedades e incluso -a largo plazo-
por intención, error u omisión adquiera algo semejante a una intencionalidad propia y se vuelva dañina e incluso peligrosa para nuestra supervivencia.
Sin duda es un momento bisagra en el desarrollo de la inteligencia artificial. Hace 30años, habría parecido un excelente cuento de ciencia ficción. Hoy en día es una realidad.
Pueden leer el texto de la carta aquí
Fuente: https://twitter.com/martinhadis
No pos si esta pesado, no obstante tiene su lado positivo en algunas carreras. pero si es buena idea que este supervisada, veamos que pasa entonces.