OpenAI и Anthropic тестируют модели на предмет иллюзий и вопросов безопасности.

GateNews

Данные Jin10 от 28 августа: OpenAI и Anthropic недавно оценили модели друг друга, чтобы выявить потенциальные проблемы, которые могли быть упущены в их собственных тестах. Обе компании в среду сообщили на своих блогах, что этим летом они провели тестирование безопасности доступных AI-моделей друг друга и проверили, есть ли у моделей тенденция к иллюзиям, а также так называемая проблема «несоответствия» (misalignment), то есть модели не работают так, как ожидали разработчики. Эти оценки были завершены до того, как OpenAI выпустила GPT-5, а Anthropic представила Opus 4.1 в начале августа. Anthropic была основана бывшими сотрудниками OpenAI.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев