Google DeepMind publicó el lunes la versión 3.0 de su Frontier Safety Framework, incorporando nuevas protecciones contra modelos de IA que podrían manipular creencias humanas a gran escala o resistir intentos de apagado o modificación por parte de sus operadores. Este marco actualizado busca gestionar los riesgos emergentes de sistemas avanzados de IA que se acercan hacia capacidades comparables a la inteligencia general.
Google DeepMind lanza Frontier Safety Framework 3.0 reforzando protecciones contra manipulación humana y resistencia al apagado
