Un grupo de investigadores y líderes del ramo tecnológico, a través de una carta, han solicitado a todos los laboratorios que desarrollan inteligencia artificial que hagan una pausa durante al menos 6 meses en el entrenamiento de sistemas de inteligencia artificial más potentes que GPT-4.
La carta señala que los sistemas de inteligencia artificial que compitan con la inteligencia humana pueden plantear riesgos para la sociedad y la humanidad, y podrían representar un cambio profundo en la historia de la vida en la Tierra. Por ello, debería planificarse y gestionarse con el cuidado y los recursos adecuados.
Se ha señalado que los sistemas de inteligencia artificial de gran potencia solamente deben desarrollarse cuando exista la seguridad de que sus efectos serán positivos y sus riesgos controlables.
Adicionalmente, se ha indicado que la pausa solicitada debería ser pública y verificable, pidiendo la intervención de los gobiernos en caso de que la pausa no puede realizarse rápidamente.
Se espera que la pausa sea aprovechada para desarrollar y aplicar un conjunto de protocolos de seguridad para el diseño y desarrollo de inteligencia artificial avanzada que sean auditados y supervisados por expertos externos independientes. Además, se contempla que los desarrolladores de inteligencia artificial trabajen con los responsables políticos para acelerar el desarrollo de sistemas sólidos de gobernanza, incluyendo nuevas autoridades reguladoras capacitadas en materia de inteligencia artificial e instituciones que hagan frente a las perturbaciones económicas y políticas que causará la inteligencia artificial.
Entre los firmantes de la carta se encuentran Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, cofundador de Apple; y Jaan Tallinn, cofundador de Skype.