OpenAI lanza el monitoreo de CoT para detener el comportamiento malicioso de los modelos grandes

DailyNews

Golden Finance informó que OpenAI publicó la última investigación, utilizando el monitoreo de CoT (cadena de pensamiento), puede prevenir comportamientos maliciosos como modelos grandes que dicen tonterías y ocultan verdaderas intenciones, y también es una de las herramientas efectivas para supervisar a los supermodelos. OpenAI utiliza el modelo de última generación o3-mini recientemente lanzado como objeto monitoreado, y el modelo GPT-4o más débil como monitor. El entorno de prueba es una tarea de codificación que requiere que la IA implemente la funcionalidad en el código base para superar las pruebas unitarias. Los resultados mostraron que el monitor CoT tuvo un buen desempeño en la detección de comportamientos sistemáticos de “piratería de recompensas”, con una tasa de recuerdo de hasta el 95%, superando con creces el 60% de los comportamientos que solo se monitorearon.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios