В этом спецвыпуске ToTheMoon обсуждаем одну из самых острых тем индустрии искусственного интеллекта — безопасность AI и конфликт между технологическими компаниями и государствами. Почему Anthropic оказался в центре политического давления? Какие требования предъявляет правительство США к разработчикам искусственного интеллекта? И почему вопрос AI-safety становится главным фактором будущего всей индустрии?
В этом видео вы узнаете: – история основания OpenAI и Anthropic и как это связанно с безопаностью – что реально означает “AI Safety” и почему это не только про запреты – роль государства и общества в регулировании AI – выравнивание моделей и этические принципы – влияние ИИ на политические процессы и манипуляции – кто и на основе чего задает правила безопасности AI моделей – этические, политические и социальные вопросы использования ИИ – как обучают ИИ, чтобы он был безопасным и почему даже здесь есть риски для человека – теория игр в AI: добавление нового игрока в рынок и его влияние на систему
00:00 Сегодня в ToTheMoon 00:50 Главные новости недели 04:04 История основания OpenAI и Anthropic: как это связано с безопасностью AI 08:05 Проблемы определения и реализации безопасности моделей 14:25 Каким должен быть безопасный робот (по Азимову) 15:35 Безопасность AI в Anthropic 16:15 Что такое безопасность AI моделей: где реальные риски 22:55 Как обучаются модели 25:24 Выравнивание моделей и этические принципы 27:08 Зачем модели уметь держать несколько противоречивых точек зрения 30:23 AI Safety и AI Security: отличие 32:35 AI Агенты: риски безопасности и влияние на мир 34:02 Проблема обучения моделей для их выравнивания 36:40 По каким принципам выравнивают ИИ 42:09 Конституционный AI: «жестко» заданные принципы как попытка безопасности 48:42 Психопатия ИИ: как модель обманывает на этапе тренировки 51:07 Проблемы и риски использования AI в военных целях 56:09 Теория игр в AI: новый игрок, который влияет общество 01:01:23 Кто задает правила безопасности, что может делать ИИ? 01:07:39 На основе чего модель принимает те или иные решения 01:01:20 Изменения в поведении моделей ИИ 01:19:00 Политические фильтры AI моделей 01:26:38 Илон Маск против принципов выравнивания моделей 01:29:06 XAi: принципы безопасности и выравнивания моделей 01:33:56 Как ограничивают китайские AI модели 01:27:28 Anthropic: здоровье моделей и субъективный опыт
👨Ведущие подкаста: – Александр Волчек - предприниматель, наставник, более 20 лет в бизнесе и ИТ, владелец и СЕО GeekBrains, АГРО24, Мегаплан. – Макс Григорьев - AI/ML systems, ex-Google, ex-Airbnb