$118 млн стоила подготовка и сам полет в этом году на Луну 1-й частной компании Intuitive Machines, которая сделала это в феврале

Об этом заявил генеральный директор и соучредитель Intuitive Machines Стив Альтемус.

«Мы сделали это примерно за 4 года, полностью разрушили отрасль с точки зрения экономики полетов на Луну», - сказал Альтемус.

Intuitive Machines планирует вторую лунную миссию, IM-2, в ноябре.

А #Роскосмос готовится к экспансии Луны после 2036 года, причем не самостоятельно, а с Китаем.

О развитии бизнеса на #Луне мы писали здесь.
Глава Ростеха о крипте и поддержке цифрового рубля

С. Чемезова спросили, как решается проблема с платежами, есть ли опыт использования криптовалют?

«Пока, на сегодняшний день, нет. Я думаю, что цифровой рубль — это перспектива. И сегодня идет уже пилотный проект, наш Новикомбанк активно участвует в этом. Я думаю, что если в 2025 году наш регулятор примет решение о введении цифрового рубля, то мы, конечно, будем его использовать», - заявил Чемезов.
OpenAI после Google пошел в Reddit, чтобы там обучать свои ИИ-модели

Эта сделка позволит создателю ChatGPT обучать свои модели искусственного интеллекта на контенте Reddit.

OpenAI получит доступ к API, который предоставляет в онлайн-режиме структурированный и уникальный контент от Reddit.

В обмен Reddit начнет предлагать определенные ИИ функции OpenAI пользователям и модераторам своей площадки, который станет рекламным партнером Reddit.

Отметим, что #Reddit уже разрешает #Google использовать свой контент для обучения данных Gemini. Контракт на доступ к данным Reddit составляет $60 млн в год.

Никаких цифр по договору #OpenAI и Reddit пока нет.
⚡️ Больше нет проблем с графическим процессором: #HuggingFace запустил ZeroGPU - общую инфраструктуру для независимых и академических разработчиков #ИИ

#ZeroGPU дает всем open source ИИ - моделям свободно работать без финансовых затрат на вычислительные ресурсы.

HuggingFace выделяет $10 млн на бесплатное пользование общими графическими процессорами.

Цель состоит в том, чтобы помочь мелким разработчикам, ученым и стартапам противостоять централизации достижений в области ИИ.

https://www.tg-me.com/alwebbci/2226
Общее view по итогам анонсов #Google и #OpenAI на этой неделе, что же они нам говорят о том, что будет дальше в ИИ.

1. Представленный Gemini 1.5 Flash стал 🚀 Google. Небольшая модель с 1МБ контекста и производительностью Flash просто невероятна.

А у OpenAI теперь лучшая большая модель с GPT-4o, а у Google — лучшая маленькая модель с Gemini 1.5 Flash.

Гонка продолжается.

2. Несмотря на это, уровень конвергенции впечатляет — сходство между GPT4o и Astra(Google), Veo(Google) и Sora(OpenAI) и тд.

Похоже, что Google и OpenAI следуют одинаковым техническим траекториям.

Для отрасли лучше дивергенция, чем конвергенция. Увы.

3. Огромные успехи в оценке GPT-4o, которые ошеломляют, по-видимому, почти полностью обусловлены отличными ПОСТ-ТРЕНИРОВКАМИ.

Сравнение GPT-4 при запуске с GPT - 4o, которые работают круглосуточно, показывает силу отличного пост-тренинга с отличными данными.

4. По факту большинство различий между топовыми моделями сегодня (#Claude3, #Llama3, #GPT-4o, #Gemini1.5), похоже, полностью обусловлены пост-обучением, а не предварительным обучением.

Это может быть из-за проблем с цепочкой поставок на этапе предварительного обучения — подготовка вычислительных ресурсов + нехватка данных.

5. Тем не менее, это указывает на то, чего нам, возможно, следует ожидать и в отношении будущего развития:

Дальнейшее развитие постобучения, которое требует большого количества пограничных данных.

Дальнейший прогресс может быть полностью ограничен из-за обилия данных после обучения.

6. Все это сходится к тому, что рассматривать все области передовых исследований:

агенты, мультимодальность, многоязычие, экспертная цепочка мыслей, рабочие процессы предприятия и т.д.

Все это зависит от данных, которых сегодня просто не существует, и нам нужны средства производства.

7. Данные ИИ — ОЧЕНЬ сложная проблема, и простого пути ее решения нет.

Чисто синтетические данные не являются спасением: синтетические данные не могут раздвинуть границы моделей за пределы текущих возможностей. Это инструмент, а не панацея.

Это сложная проблема симбиоза #ИИ и человека-эксперта.

8. Нужны кардинальные изменения. Каждый крупный прорыв в области #искусственногоинтеллекта за последние 20 лет был обусловлен улучшением качества и увеличением объема данных, начиная с оригинальной глубокой нейронной сети #AlexNet на #ImageNet.

Законы масштабирования ясно показывают, куда мы движемся: нам нужно больше данных.
Вот почему ушел Илья #Суцкевер и вся его команда.

Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.

А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.

Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.

Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:

1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.

2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.

Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.

3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.

4. Создание машин, которые умнее человека, является по своей сути опасным занятием.

OpenAI берет на себя огромную ответственность от имени всего человечества.


5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.

6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
Сэм #Альтман нервничает из-за публичной критики как про деньги, так и про безопасность ИИ, все подробности в этой статье

В пятницу Альтман в твиттере обещал подготовить ответ на высказанную критику со стороны Яна #Лейке, экс-руководителя команды по безопасности сильного #ИИ.


Сегодня от имени в том числе Сэма написал пост #Брокман (президент #OpenAI), где в начале он оправдывается, говорит, что OpenAI все делают ради мира, а потом пишет следующее:

«..будущее будет сложнее прошлого…мы пока не уверены, когда достигнем планки безопасности, и ничего страшного, если это сдвинет сроки выпуска.
Не существует проверенного руководства по тому, как пройти путь к AGI. Мы считаем, что эмпирическое понимание может помочь определить путь».

Альтман про отбирание денег у тех, кто хочет уволиться из OpenAI и не подписывает документ о не разглашении информации пишет следующее:

«..мы никогда не отдавали и не будем этого делать, если люди не подписывают соглашение. Вложенный капитал - это вложенный капитал и точка.

В наших предыдущих документах об уходе из компании было положение о потенциальном аннулировании капитала; хотя мы никогда ничего не требовали обратно, этого никогда не должно было быть в каких-либо документах или сообщениях. Я не знал, что это происходит, и мне следовало это знать.

Если какой-либо бывший сотрудник, подписавший одно из этих старых соглашений, обеспокоен этим, он может связаться со мной, и мы это тоже исправим».
Итоги уходящей недели в России и мире, что имеет значение:

1. Российские цифровые технологии станут военными, это связано с экс-1-м вице-премьером правительства А. Белоусовым, все подробности здесь и здесь.

2. Создание российского аналога Starlink станет 1-й задачей Минцифры на следующие 6 лет работы, а других приоритетах описали тут.

3. Илья Суцкевер, главный научный руководитель OpenAI и ее со-основатель покинул компанию, как все так сложилось и почему за ним ушли другие сотрудники, читайте здесь:

https://www.tg-me.com/blockchainRF/9844

https://www.tg-me.com/blockchainRF/9852

https://www.tg-me.com/blockchainRF/9853

https://www.tg-me.com/blockchainRF/9863

https://www.tg-me.com/blockchainRF/9846

https://www.tg-me.com/blockchainRF/9864

4. Recursion и NVIDIA представили крупнейший в мире суперкомпьютер для фармацевтики.

5. В Сбере произошли структурные изменения и кадровые назначения, все подробности здесь.

6. Китайский разработчик роботов-гуманоидов Unitree представил нового робота с ИИ аватаром.

7. OpenAI представил новую модель GPT-4o.

8. Amazon и Microsoft инвестируют во Францию €млрд, почему? Ответ здесь.

9. Apple подписала соглашение с OpenAI, теперь ChatGPT в каждом IPhone будет с IOS18.

10. Google представила новые чипы для ИИ.

11. Борис Ковальчук, глава Счетной палаты заявил, что мораторий на проверку IT-компаний в РФ завершен, пора проверить ценообразование в сфере цифровизации.

12. Экс-глава департамента развития технологий цифровой идентификации Минцифры РФ
Д. Дубынин может скоро стать главой Национальной системы платежных карт.

13. МТС идет в метавселенную, подробнее тут.

14. Китайцы показали как работает роботизированная рука с помощью нейроинтерфейса.

15. За последние 2 недели Google совершили несколько больших прорывов в ИИ, которые могут изменить будущее науки и медицины. Все рассказали тут.

16. В новом iOS 18 будет возможность управлять устройствами с помощью только глаз(!).

17. Deloitte: к 2026г. мировой рынок #нейробиологии достигнет $721 млрд.

18. HuggingFace запустил проект ZeroGPU, который решает проблему с вычислительными ресурсами.

19. Что мир ждет в развитии ИИ? Итоги после просмотра последний презентаций OpenAI и Google.

20. Прогноз IDC о рынке #AR #VR.
В судах растут споры вокруг использования российского софта

С начала года наблюдается 30% рост числа судебных разбирательств между отечественными IT-компаниями и крупным бизнесом, связанных с правами на использование софта.

Претензии вендоров все чаще относятся к неправомерному использованию их продуктов, за что компании требуют компенсацию у партнеров. В ряде случаев у последних есть встречные претензии к поставщикам.

Вот список самых распространенных случаев:

1. использование ПО «за пределами договора» или «после прекращения лицензионного договора», что считается нарушением исключительного права правообладателя.

2. распространение российского ПО, в том числе созданного по заказу либо в формате соглашений о совместных разработках. Создание ПО, основанного на IT-решениях других компаний или содержащего их в своем составе, предусматривает определенный срок использования элементов.

3. глубина интеграции ПО в деятельность лицензиатов, поскольку в таких случаях правообладателю сложно администрировать использование софта заказчиками.
Европейская группа прямых инвестиций покупает за $2,8млрд Keywords

EQT проводит встречи по покупке Keywords Studios, которая является глобальным поставщиком креативных и технологических решений для индустрии видеоигр и развлечений и в настоящее время представлена в 26 странах.
Пока Маск делает робота-гуманоида, в РФ делают подводного рыбоподобного робота-тунца

Спойлер - вся суть в энергоэффективности

Делает это группа ученых под руководством уважаемого нами профессора В. Б. Казанцева. Вышло его интервью, рекомендуем его изучить полностью тут.

Почему робот - рыба спросите вы?

Вот как это аргументирует В. Б. Казанцев:


Ни один робот ни у нас, ни в США не двигается как человек. Например, задача поддержания баланса существа, которое стоит на двух ногах, по сути, не решена.

Оказывается, для поддержания этого баланса нет чисто механистического подхода.
Человек может наклоняться, смещать центр тяжести. В этом случае у него напрягаются мышцы скелета, а не только мышцы ног, как у роботов. По сути, работает все тело для поддержания равновесия. Решать эту задачу нужно с использованием нейроморфного подхода.

Самым простым и надежным телом показались именно рыбы, которые плавают, двигаясь хвостом.

Если сделать рыбе нулевую плавучесть и что-то сломается, она не утонет, не улетит, не разобьется. У двуногих роботов задача поддержания баланса перекрывает все остальные. А нам интересны задачи взаимодействия мозга с периферией.

По сути, мы сделали машину, в которую начинаем вкладывать систему управления.

Интересно, что задача биомеханики плавания по сути тоже не решена до конца. Во-первых, рыб много, во-вторых, универсальной теории плавания рыбы с точки зрения работы сетей управления и самой биомеханики не существует.

Выяснилось, что движения хвоста у него неизохронные, то есть хвост движется неравномерно. Как только мы ввели это в нейронную сеть управления движения хвоста, получили выигрыш в скорости на 30%. При этом энергетика увеличилась всего на 1%. Представляете, какая эффективность! Это то, что отличает все нейроморфные, биоморфные решения,— энергоэффективность.
Уже есть понимание как живет офис будущего, где у ИИ есть большая роль.

Microsoft выпустили отчет по кадровым тенденциям за 2024 год

В отчете рассматривается, как рядовые сотрудники и руководители воспринимают надвигающуюся волну ИИ на рабочих местах.

Вот яркие момента из исследования:

1. 75% опрошенных сотрудников уже используют ИИ на работе.

2. 52% людей, которые используют ИИ на работе, неохотно признаются, что используют его для своих самых важных задач. Это связано со многими причинами, в том числе со страхом быть замененным более совершенными инструментами ИИ. Тем не менее, это подвергает компанию потенциальным кибер рискам.
Наступит время, когда человек будет ностальгировать по тому периоду, что у нас были телефоны, которые можно было выключить и выйти из сети.
Prosus Ventures составили карту ИИ-агентов + ландшафт AgentOps

ИИ-агенты — одна из самых горячих сфер развития и инвестиций в ИИ.

Вот основные моменты из исследования Prosus Ventures:

1. Агенты могут принимать решения и действовать самостоятельно, следуя общим инструкциям пользователя.

Они состоят из 4 основных компонентов:

- LLM
- Tools: web search, code execution, etc
- Memory: access to knowledge such as databases
- Reflection & self-critiquing

2. Разница между LLM и агентами

Агенты могут быть разной степени сложности.

Это зависит от количества и качества инструментов, используемого LLM, ограничений и средств контроля, налагаемых на рабочие процессы, создаваемые агентами.

3. Какие есть нерешенные проблемы

- Технологическая готовность
- Масштабируемость агентских систем
- Инструменты и интеграции.
Китайские данные по обучению токенов GPT-4o загрязнены спамом и порносайтами

У
#GPT -4o есть проблема: его самые длинные китайские токены состоят из порно и азартных игр

Эта проблема с грязными данными, вероятно, произошла из-за недостаточной их очистки.

Из-за этого модель будет галлюцинировать или генерировать небезопасные ответы.

Токены — это то, что большая языковая модель ИИ использует для синтаксического анализа и обработки текстов.

Чем больше и длиннее токен, особенно в языках, отличных от английского, эффективность модели может быть повышена, а цена за генерацию ответов может быть ниже.

GPT-4o использует новый токенизатор(состоящий из 200тыс токенов), у которого больше неанглийских токенов, но, когда дело доходит до китайского, он вводит большое количество спам-контента.

Пользователи также обнаружили, что эти токены могут быть использованы для взлома LLM, либо для того, чтобы он нашел совершенно несвязанные ответы, либо, в редких случаях, для создания ответов, которые не разрешены в соответствии со стандартами безопасности OpenAI.
⚡️1 лауреат Нобелевской +3 лауреата премии Тьюринга написали статью об управлении рисками ИИ

Свежая статья вышла сегодня под названием «Управление экстремальными рисками ИИ в условиях быстрого прогресса».

Вот основные моменты:

1. Компании участвуют в гонке за создание универсальных систем искусственного интеллекта(AGI), которые соответствуют/ превосходят способности человека в большинстве когнитивных работ.

2. ИИ-чипы становятся в 1,4 раза более экономичными, а алгоритмы обучения ИИ в 2,5 раза более эффективными с каждым годом.

3. Нет никакой фундаментальной причины, чтобы прогресс ИИ замедлялся/ останавливался на человеческом уровне.

4. ИИ уже превзошел человеческие способности в узких областях, таких как игра в го прогнозирование того, как сворачиваются белки.

5. Мы точно не знаем, как будет развиваться будущее ИИ. Тем не менее, мы должны серьезно отнестись к возможности того, что очень мощные AGI, которые превосходят человеческие способности во многих критически важных областях, будут разработаны в течение этого десятилетия или следующего.

6. Мы ожидаем значительного увеличения развертывания ИИ, возможностей и рисков. При тщательном управлении и справедливом распределении ИИ может помочь человечеству вылечить болезни, повысить уровень жизни и защитить экосистемы. Возможности огромны.

7. Но наряду с этим есть и крупномасштабные риски.

Системы ИИ угрожают усилить социальную несправедливость, подорвать социальную стабильность, обеспечить широкомасштабную преступную деятельность и облегчить автоматизированную войну, индивидуальные массовые манипуляции и широко распространенное наблюдение.

8. Как только автономные системы ИИ будут преследовать нежелательные цели, мы не сможем держать их под контролем.

Что предлагают ученые?

- призывают частный бизнес и госсектор выделить 1/3 своего бюджета на НИОКР на решение проблем НИОКР и обеспечение безопасности и этического использования ИИ.

-
нужны национальные институты и международное управление для обеспечения соблюдения стандартов, которые предотвращают безрассудство и злоупотребление ИИ.

- нужны меры управления, которые подготовят к внезапным прорывам ИИ, будучи политически осуществимыми, несмотря на разногласия и неопределенность в отношении сроков ИИ. Ключевым моментом являются политики, которые автоматически запускаются, когда ИИ достигает определенных этапов возможностей.

- регуляторы могут и должны требовать, чтобы разработчики frontier AI предоставляли внешним аудиторам на месте, всеобъемлющий («white-box») и точно настраивающий доступ с самого начала разработки модели

- нужны строгие методы для привлечения и оценки возможностей ИИ и прогнозирования их перед обучением.

- нужно научиться оценивать не только опасные возможности, но и риски в общеском контексте, со сложными взаимодействиями и уязвимостями.

- нужны инструменты для обнаружения и защиты от угроз с помощью ИИ, таких как крупномасштабные операции влияния, биологические риски и кибератаки. Однако, по мере того, как системы искусственного интеллекта становятся более способными, они в конечном итоге смогут обойти созданную человеком защиту. Чтобы обеспечить более мощную защиту на основе ИИ, сначала нужно научиться делать системы ИИ безопасными и согласованными.
2024/05/21 06:48:08
Back to Top
HTML Embed Code: