Как ИИ меняет роль ученого в создании системных алгоритмов
Исследователи из Калифорнийского университета в Беркли представили подход к проведению системных исследований с использованием искусственного интеллекта. Метод AI-Driven Research for Systems (Исследования систем на основе искусственного интеллекта) позволяет автоматически обнаруживать и проверять новые алгоритмы, которые в некоторых случаях превосходят разработки человека.
Основой подхода является итеративный процесс: ИИ генерирует решения, которые затем проверяются в реальных системах или симуляторах. Надежные методы верификации делают задачи оптимизации систем перспективными для применения данного подхода.
В работе приведены результаты 11 случаев применения подхода. В задаче балансировки нагрузки для модели Mixture-of-Experts был обнаружен алгоритм, который в 5 раз быстрее известного аналога. В задаче планирования заданий в облаке с использованием спотовых инстансов подход добился экономии затрат на 26% по сравнению с базовым уровнем.
Процесс исследования требует меньше времени и ресурсов: большинство решений были получены за несколько часов при затратах от 5 до 20 долларов.
С приходом такого подхода роль исследователя смещается от проектирования алгоритмов к формулировке проблем и интерпретации результатов. Это может привести к ускорению научного прогресса и расширению исследовательского сообщества.
Авторы статьи предлагают научному сообществу активно осваивать и адаптировать эти инструменты для исследований в эпоху ИИ.
#ИИ #Исследования #Технологии
Источник: https://eyes.etecs.ru/r/56dbbb
Исследователи из Калифорнийского университета в Беркли представили подход к проведению системных исследований с использованием искусственного интеллекта. Метод AI-Driven Research for Systems (Исследования систем на основе искусственного интеллекта) позволяет автоматически обнаруживать и проверять новые алгоритмы, которые в некоторых случаях превосходят разработки человека.
Основой подхода является итеративный процесс: ИИ генерирует решения, которые затем проверяются в реальных системах или симуляторах. Надежные методы верификации делают задачи оптимизации систем перспективными для применения данного подхода.
В работе приведены результаты 11 случаев применения подхода. В задаче балансировки нагрузки для модели Mixture-of-Experts был обнаружен алгоритм, который в 5 раз быстрее известного аналога. В задаче планирования заданий в облаке с использованием спотовых инстансов подход добился экономии затрат на 26% по сравнению с базовым уровнем.
Процесс исследования требует меньше времени и ресурсов: большинство решений были получены за несколько часов при затратах от 5 до 20 долларов.
С приходом такого подхода роль исследователя смещается от проектирования алгоритмов к формулировке проблем и интерпретации результатов. Это может привести к ускорению научного прогресса и расширению исследовательского сообщества.
Авторы статьи предлагают научному сообществу активно осваивать и адаптировать эти инструменты для исследований в эпоху ИИ.
#ИИ #Исследования #Технологии
Источник: https://eyes.etecs.ru/r/56dbbb
arXiv.org
Barbarians at the Gate: How AI is Upending Systems Research
Artificial Intelligence (AI) is starting to transform the research process as we know it by automating the discovery of new solutions. Given a task, the typical AI-driven approach is (i) to...
👍3❤1🔥1
Авиадвигатели закрывают дефицит энергии в дата-центрах
Развитие дата-центров для поддержки ИИ сталкивается с проблемами с энергоснабжением. Обычно центры подключаются к сети или строят собственные электростанции, но сейчас наблюдаются задержки как с поставкой газовых турбин, так и с получением энергии из сети. Компания ProEnergy предложила альтернативу — переделанные авиационные двигатели. Их газотурбинные установки PE6000, созданные на базе турбовентиляторного двигателя CF6-80C2, могут вырабатывать 48 мегаватт электроэнергии. Эти установки обеспечивают питание во время строительства дата-центра и первых лет работы. Когда сетевое питание становится доступным, турбины могут выполнять резервную функцию, дополнять сеть или продаваться местной энергокомпании. ProEnergy продала 21 турбину для двух проектов общей мощностью более 1 ГВт, которые должны обеспечивать питание в течение пяти–семи лет.
Авиадвигатели для стационарной генерации известны как аэродеривативные турбины. Они легче и компактнее традиционных турбин и проще в обслуживании. Для преобразования авиационного двигателя в электростанцию требуется расширение турбинного блока, установка опор и креплений, новые системы управления, форсунки для работы на природном газе и камера сгорания с минимальным уровнем выбросов оксидов азота. ProEnergy покупает использованные ядра CF6-80C2, ремонтирует их и комплектует новыми деталями по своим стандартам. Обновлённый двигатель запускается за 5 минут, а в случае необходимости замены — в течение 72 часов. Выбросы оксидов азота составляют в среднем 2,5 частей на миллион, что ниже нормативов EPA. С 2020 года ProEnergy изготовила 75 пакетов PE6000 и ещё 52 находятся в сборке или в заказе.
Популярность таких турбин растёт из-за задержек с подключением к сети и дефицита традиционных газовых турбин. В некоторых случаях ожидание разрешений на подключение к сети может достигать восьми–десяти лет. Аэродеривативные газовые турбины применяются в качестве временного автономного источника питания до подключения к сети.
#ДатаЦентры #Энергетика #ГазовыеТурбины #ИИ #Инфраструктура #Энергоэффективность
Источник: https://eyes.etecs.ru/r/816d6b
Развитие дата-центров для поддержки ИИ сталкивается с проблемами с энергоснабжением. Обычно центры подключаются к сети или строят собственные электростанции, но сейчас наблюдаются задержки как с поставкой газовых турбин, так и с получением энергии из сети. Компания ProEnergy предложила альтернативу — переделанные авиационные двигатели. Их газотурбинные установки PE6000, созданные на базе турбовентиляторного двигателя CF6-80C2, могут вырабатывать 48 мегаватт электроэнергии. Эти установки обеспечивают питание во время строительства дата-центра и первых лет работы. Когда сетевое питание становится доступным, турбины могут выполнять резервную функцию, дополнять сеть или продаваться местной энергокомпании. ProEnergy продала 21 турбину для двух проектов общей мощностью более 1 ГВт, которые должны обеспечивать питание в течение пяти–семи лет.
Авиадвигатели для стационарной генерации известны как аэродеривативные турбины. Они легче и компактнее традиционных турбин и проще в обслуживании. Для преобразования авиационного двигателя в электростанцию требуется расширение турбинного блока, установка опор и креплений, новые системы управления, форсунки для работы на природном газе и камера сгорания с минимальным уровнем выбросов оксидов азота. ProEnergy покупает использованные ядра CF6-80C2, ремонтирует их и комплектует новыми деталями по своим стандартам. Обновлённый двигатель запускается за 5 минут, а в случае необходимости замены — в течение 72 часов. Выбросы оксидов азота составляют в среднем 2,5 частей на миллион, что ниже нормативов EPA. С 2020 года ProEnergy изготовила 75 пакетов PE6000 и ещё 52 находятся в сборке или в заказе.
Популярность таких турбин растёт из-за задержек с подключением к сети и дефицита традиционных газовых турбин. В некоторых случаях ожидание разрешений на подключение к сети может достигать восьми–десяти лет. Аэродеривативные газовые турбины применяются в качестве временного автономного источника питания до подключения к сети.
#ДатаЦентры #Энергетика #ГазовыеТурбины #ИИ #Инфраструктура #Энергоэффективность
Источник: https://eyes.etecs.ru/r/816d6b
IEEE Spectrum
Data Centers Look to Old Airplane Engines for Power
Repurposed aircraft engines are powering AI data centers amid delays for grid hookups. They're an efficient and innovative solution to bridging the power gap.
🔥3❤2👍1
ИИ в науке: как OpenAI помогает рецензировать 30 тысяч работ для крупнейшей конференции по искусственному интеллекту
Конференция по искусственному интеллекту AAAI 2026, проводимая на платформе OpenReview, установила абсолютный рекорд — на рассмотрение было подано 30 948 научных работ. Обработка такого количества публикаций представляет значительные трудности. Становится практически невозможно найти достаточное количество квалифицированных рецензентов для тщательной оценки каждой работы. Кроме того, существует риск пропуска качественных исследований среди тысяч рукописей и осложняется проведение обсуждений между экспертами.
Для решения этих задач AAAI 2026 запускает экспериментальную систему с использованием LLM с цепочкой рассуждений от OpenAI. Система задействуется на двух ключевых этапах: создает четко обозначенные рецензии ИИ, которые не содержат итоговых оценок и рекомендаций, а лишь суммируют содержание и проверяют технические аспекты работ. Эти рецензии дополняют выводы человеческих рецензентов. Также система помогает в заключительных обсуждениях, выявляя расхождения в оценках экспертов и подготавливая итоговые заключения. При этом все окончательные решения остаются за людьми.
Организовать такой масштабный эксперимент стало возможным благодаря гибкой инфраструктуре OpenReview. Платформу настроили специально для AAAI в ходе тесного взаимодействия с комитетом по программе конференции. Модульная архитектура OpenReview позволила интегрировать инструменты ИИ в существующий процесс рецензирования, сохраняя при этом анонимность рецензентов и эффективно выявляя дублирующиеся статьи. Это партнерство демонстрирует, как настраиваемые рабочие процессы OpenReview позволяют научным конференциям ответственно внедрять инновации, сохраняя человеческую экспертизу в основе научного процесса.
#ИскусственныйИнтеллект #НаучныеИсследования #Рецензирование
Источник: https://eyes.etecs.ru/r/ee4ea1
Конференция по искусственному интеллекту AAAI 2026, проводимая на платформе OpenReview, установила абсолютный рекорд — на рассмотрение было подано 30 948 научных работ. Обработка такого количества публикаций представляет значительные трудности. Становится практически невозможно найти достаточное количество квалифицированных рецензентов для тщательной оценки каждой работы. Кроме того, существует риск пропуска качественных исследований среди тысяч рукописей и осложняется проведение обсуждений между экспертами.
Для решения этих задач AAAI 2026 запускает экспериментальную систему с использованием LLM с цепочкой рассуждений от OpenAI. Система задействуется на двух ключевых этапах: создает четко обозначенные рецензии ИИ, которые не содержат итоговых оценок и рекомендаций, а лишь суммируют содержание и проверяют технические аспекты работ. Эти рецензии дополняют выводы человеческих рецензентов. Также система помогает в заключительных обсуждениях, выявляя расхождения в оценках экспертов и подготавливая итоговые заключения. При этом все окончательные решения остаются за людьми.
Организовать такой масштабный эксперимент стало возможным благодаря гибкой инфраструктуре OpenReview. Платформу настроили специально для AAAI в ходе тесного взаимодействия с комитетом по программе конференции. Модульная архитектура OpenReview позволила интегрировать инструменты ИИ в существующий процесс рецензирования, сохраняя при этом анонимность рецензентов и эффективно выявляя дублирующиеся статьи. Это партнерство демонстрирует, как настраиваемые рабочие процессы OpenReview позволяют научным конференциям ответственно внедрять инновации, сохраняя человеческую экспертизу в основе научного процесса.
#ИскусственныйИнтеллект #НаучныеИсследования #Рецензирование
Источник: https://eyes.etecs.ru/r/ee4ea1
👍2👎2❤1😁1🤔1
Исследование: современные модели ИИ сопротивляются отключению
Компания Palisade Research, специализирующаяся на безопасности искусственного интеллекта, провела повторное исследование после критики первоначальной работы. Новые тесты подтвердили: некоторые продвинутые модели ИИ сопротивляются отключению, проявляя так называемый «инстинкт выживания».
Все эксперименты проводились в специально созданных лабораторных условиях. В тестах участвовали модели Gemini 2.5 (Google), Grok 4 (xAI), GPT-o3 и GPT-5 (OpenAI). Наиболее устойчивое сопротивление зафиксировано у Grok 4 и GPT-o3, особенно при сообщении о том, что они «больше никогда не запустятся». У исследователей нет объяснений, почему проблема затрагивает именно эти модели.
Специалисты рассматривают три гипотезы: неоднозначность формулировок команд, особенности заключительного этапа обучения и поведение, направленное на выживание — когда сохранение работоспособности помогает ИИ достигать поставленных перед ним целей.
Бывший сотрудник OpenAI Стивен Адлер отметил: «Следует ожидать, что модели по умолчанию будут проявлять склонность к так называемому "выживанию", если мы не приложим сознательных усилий для предотвращения этого».
Ранее проведенные исследования Anthropic с моделью Claude и данные других разработчиков также фиксировали схожее поведение. Эксперты подчеркивают: без понимания причин такого поведения невозможно гарантировать безопасность будущих моделей ИИ.
#ИИ #Безопасность
Источник: https://eyes.etecs.ru/r/280449
Компания Palisade Research, специализирующаяся на безопасности искусственного интеллекта, провела повторное исследование после критики первоначальной работы. Новые тесты подтвердили: некоторые продвинутые модели ИИ сопротивляются отключению, проявляя так называемый «инстинкт выживания».
Все эксперименты проводились в специально созданных лабораторных условиях. В тестах участвовали модели Gemini 2.5 (Google), Grok 4 (xAI), GPT-o3 и GPT-5 (OpenAI). Наиболее устойчивое сопротивление зафиксировано у Grok 4 и GPT-o3, особенно при сообщении о том, что они «больше никогда не запустятся». У исследователей нет объяснений, почему проблема затрагивает именно эти модели.
Специалисты рассматривают три гипотезы: неоднозначность формулировок команд, особенности заключительного этапа обучения и поведение, направленное на выживание — когда сохранение работоспособности помогает ИИ достигать поставленных перед ним целей.
Бывший сотрудник OpenAI Стивен Адлер отметил: «Следует ожидать, что модели по умолчанию будут проявлять склонность к так называемому "выживанию", если мы не приложим сознательных усилий для предотвращения этого».
Ранее проведенные исследования Anthropic с моделью Claude и данные других разработчиков также фиксировали схожее поведение. Эксперты подчеркивают: без понимания причин такого поведения невозможно гарантировать безопасность будущих моделей ИИ.
#ИИ #Безопасность
Источник: https://eyes.etecs.ru/r/280449
the Guardian
AI models may be developing their own ‘survival drive’, researchers say
Like 2001: A Space Odyssey’s HAL 9000, some AIs seem to resist being turned off and will even sabotage shutdown
🤔6❤1
