Telegram Web Link
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 LTX Video: генерация видео

Lightricks представили LTX Video (LTXV) — open-source модель для генерации видео, работающую быстрее воспроизведения. В основе технологии — энкодер с коэффициентом сжатия 1:192, обеспечивающий высокую согласованность движения.

### 🔑 Основные характеристики:
- 5 секунд видео (121 кадр, 768x512) за 2.5 секунды (20 шагов диффузии на H100).
- Компактная модель (2B параметров): отличные результаты без массивных архитектур.
- Оптимизация для GPU/TPU с PyTorch XLA.
- Эффективная работа на потребительских GPU (например, RTX 4090).

### 📌 Ресурсы:
- [GitHub](https://github.com/Lightricks/LTX-Video)
- [Hugging Face](https://huggingface.co/Lightricks/LTX-Video)
- [ComfyUI Nodes](https://github.com/Lightricks/ComfyUI-LTXVideo)
- [Playground](https://huggingface.co/spaces/Lightricks/LTX-Video-Playground)

🔗 [Подробнее на сайте Lightricks](https://www.lightricks.com/ltxv)
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Anthropic предлагает новый способ интеграции данных с AI-чатботами

Компания Anthropic представила метод подключения внешних данных к AI-чатботам, таких как Claude, с упором на приватность и контроль. Эта система позволяет чатботу извлекать данные из подключенных источников (например, корпоративных баз данных или облачных систем), минимизируя риск утечек.

### 🚀 Основные особенности:
- Локальный доступ к данным: данные остаются на стороне пользователя и предоставляются AI только по запросу, что повышает безопасность.
- Гибкая настройка доступа: можно регулировать, какие данные доступны и в каких пределах.
- Обновление информации в реальном времени: чатботы могут работать с актуальными данными, предоставляя пользователям контекстуальные и точные ответы.
- Применение в бизнесе: подходит для автоматизации процессов, поддержки клиентов и работы с конфиденциальной информацией.

Anthropic делает акцент на этичном использовании AI, избегая рисков, связанных с централизованным хранением пользовательских данных.

🔗 [Читать на TechCrunch](https://techcrunch.com/2024/11/25/anthropic-proposes-a-way-to-connect-data-to-ai-chatbots/)
🎙️ OuteTTS-0.2-500M: обновление TTS-модели с улучшенным клонированием голоса

OuteTTS-0.2-500M — новая версия модели синтеза речи, основанная на Qwen-2.5-0.5B. Обучена на улучшенных датасетах (Emilia-Dataset, LibriTTS-R, Multilingual LibriSpeech) с поддержкой контекста до 4096 токенов (~54 секунды звука).

### Что нового?
🟢 Точность: Более согласованное следование промптам.
🟢 Натуральность: Ещё более естественная и плавная речь.
🟢 Словарь: Тренировка на 5+ млрд аудио-токенов.
🟢 Клонирование голоса: Точность и вариативность улучшены.
🟢 Многоязычность: Поддержка китайского, японского и корейского языков (экспериментально).

https://www.outeai.com/blog/outetts-0.2-500m
https://huggingface.co/OuteAI/OuteTTS-0.2-500M
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Hunyuan Video - новый опенсорс 13B видео генератор от Tencent

Качество офигенное, даже для 13B модели, хоть и генерировать может максимум пять секунд. Но, самое главное - доступны веса.

Генерится 129 кадров, что как раз чуть больше 5 сек в 24 fps.

По архитектуре: используют Temporal VAE с 16 каналами и 4x даунсеплингом по времени, то есть это 32 latent frame'а. То есть автоэнкодер не самый навороченный – в других моделях и видео и 128 каналов и более агрессивный даунсемплинг по времени.

Сама модель очень похожа на Flux, где сначала идут two-stream блоки как в SD3, где картиночные и текстовые токены обрабатываются параллельно, а затем идёт серия обычных DiT блоков.

В качестве текстового энкодера используют Clip и Multimodal LLM (llava-llama-3-8b) вместо традиционного T5. Говорят, что с MLLM у них достигается боле качественный prompt alignment.

Чтобы запустить модель нужно минимум 45 гигабайт видеопамяти для 544x960 видео и 60 гигов для 720p. Умельцы явно подкрутят и оптимизируют модельку, так что запуск на консьюмерских видюхах на низком разрешении не исключён.

Статья занятная, стоит прочитать в деталях.

Я пока сам их моделью ничего не генерил, но предполагаю, что одно видео будет генерится минут 10.

Демка (нужен китайский номер)
Веса
Пейпер

@ai_newz
Forwarded from Machinelearning
🌟 PydanticAI: фреймворк для создания AI-агентов на основе Pydantic.

PydanticAI - фреймворк для Python, созданный командой разработчиков Pydantic, который упрощает создание приложений с использованием LLM. Фреймворк имеет простой и интуитивно понятный интерфейс для взаимодействия с LLMs, поддерживающими Async OpenAI (Ollama) и openAI API (ChatGPT, Gemini и Groq), с поддержкой Anthropic в ближайшем будущем.

Основная особенность PydanticAI - система внедрения зависимостей, которая передает данные, соединения и логику в целевую модель. Она упрощает тестирование и оценку агентов и позволяет динамически формировать системные промпты и определять инструменты, доступные LLM.

PydanticAI имеет возможность потоковой обработки ответов с валидацией структурированных данных, позволяя контролировать корректность соответствие данных ожидаемому ответу, тем самым повышая эффективность и интерактивность приложений.

Для отладки и мониторинга работы агентов предусмотрена интеграция с Pydantic Logfire, с которым можно отслеживать запросы к базам данных, анализировать поведение модели и оценивать производительность.

▶️ В документации к проекту доступны примеры применения PydanticAI в сценариях:

🟢Построение Pydantic-модели на основе текстового ввода;
🟢Погодный агент;
🟢Агент поддержки клиентов банка;
🟢Генерация SQL-запросов на основе пользовательского ввода;
🟢RAG-поиск по массиву markdown-документам;
🟢Вывод результатов работы агента в терминале;
🟢Пример проверки потокового структурированного ответа на примере информации о видах китов;
🟢Простой чат-приложение.

⚠️ PydanticAI находится на ранней стадии бета-тестирования.

▶️Установка и простой пример "Hello Word" с Gemini-1.5-flash:

# Install via  PyPI
pip install pydantic-ai

# Set Gemini API key
export GEMINI_API_KEY=your-api-key

# Run example
from pydantic_ai import Agent
agent = Agent(
'gemini-1.5-flash',
system_prompt='Be concise, reply with one sentence.',
)
result = agent.run_sync('Where does "hello world" come from?')
print(result.data)
"""
The first known use of "hello, world" was in a 1974 textbook about the C programming language.
"""


📌Лицензирование: MIT License.


🟡Документация
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Agents #Framework #PydanticAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🌟 Fish Speech V1.5: модель преобразования текста в речь и клонирования голоса.

Fish Speech - модель генерации TTS обновилась до версии 1.5. Эта версия обучалась на 1 млн.часов мультиязычных аудиоданных и заняла 2 место в бенчмарке TTS-Arena (как "Anonymous Sparkle").

Заявлена задержка <150 мс с высококачественным мгновенным клонированием голоса.

▶️Языковая структура обучающего корпуса версии 1.5:

🟢Английский (en) >300 тыс. часов
🟢Китайский (zh) >300 тыс. часов
🟢Японский (ja) >100 тыс. часов
🟢Немецкий (de) ~20 тыс. часов
🟢Французский (fr) ~20 тыс. часов
🟢Испанский (es) ~20 тыс. часов
🟢Корейский (ko) ~20 тыс. часов
🟢Арабский (ar) ~20 тыс. часов
🟠Русский (ru) ~20 тыс. часов
🟢Голландский (nl) <10 тыс. часов
🟢Итальянский (it) <10 тыс. часов
🟢Польский (pl) <10 тыс. часов
🟢Португальский (pt) <10 тыс. часов

Fish Speech для локального инференса требует 4Gb GPU и 8 BG GPU для файнтюна. Запуск возможен на MacOS, Linux и Windows в режимах CLI, GUI и WebUI и Docker.

Подробные инструкции по установке, инференсу в различных режимах для каждой платформы, туториал по файнтюну и примеры доступны в документации проекта Fish Speech.

⚠️ Репозиторий на Github еще не обновлен информацией о версии 1.5, а официальное демо от разработчиков поддерживает синтез только на английском, китайском и японском.


📌Лицензирование: CC-BY-NC-SA-4.0 License.


🟡Модель
🟡Demo
🟡Документация
🟡Сообщество в Discord
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #TTS #FIshSpeech
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Sora: Новая текст-видео AI-модель от OpenAI

OpenAI объявила о запуске Sora — передовой модели для генерации видео по текстовым подсказкам.

### Ключевые особенности Sora
- 📝 Преобразование текста в видео: Модель принимает текстовые описания и генерирует короткие видео с реалистичными и стилизованными визуальными эффектами.
- 🎨 Широкий спектр стилей: Возможность выбора между реалистичными видео, мультяшными стилями и другими творческими визуальными решениями.
- 🔄 Стабильность последовательностей: Алгоритмы оптимизированы для сохранения плавности и логической согласованности движения объектов на видео.
- 🚀 Высокая скорость генерации: Ускоренные вычисления позволяют получать результаты быстрее по сравнению с предыдущими текст-видео моделями.
- 🛠️ Модульная интеграция: Sora легко встраивается в креативные процессы или корпоративные пайплайны благодаря API и гибким настройкам.

### Технологические новшества
Sora использует диффузионные модели нового поколения, которые объединяют высокую скорость генерации с улучшенной визуальной точностью. Для временной стабильности и детализации движения применяются специальные алгоритмы сглаживания динамики.

### Доступ и ограничения
- 🔑 Требуется учетная запись OpenAI: Доступ предоставляется через официальный интерфейс OpenAI (API или веб-платформа).
- 💵 Платный доступ: Модель предполагает коммерческую модель монетизации с оплатой за использование API. Детали тарифов уточняются.
- 🌍 Ограничения по регионам: Sora доступна только в странах, где OpenAI предоставляет свои сервисы.

### Этические рамки
- ⚠️ Контроль контента: Генерация запрещена для создания материалов, нарушающих законы, включая дезинформацию, вредоносный или неприемлемый контент.
- 🔍 Модерация: OpenAI внедрила строгие механизмы модерации, чтобы предотвращать злоупотребления моделью.
- 📜 Соответствие политике: Пользователи обязаны соблюдать политику использования, опубликованную на сайте OpenAI.

### Ограничения по генерации
- 🖼️ Максимальная длина видео: На начальном этапе Sora поддерживает короткие видео (до 30 секунд).

### Использование в бизнесе
Для корпоративных клиентов доступны дополнительные функции:
- 🛠️ Гибкая настройка: Адаптация модели под задачи компании.
- 📑 Лицензионные соглашения: Возможна покупка лицензии на использование модели в крупных проектах.


### Применение
Модель подходит для:
- Создания анимаций и рекламных роликов.
- Образовательных видео и презентаций.
- Прототипирования игровых сцен.
- Генерации контента для социальных сетей и платформ.


https://sora.com/
Forwarded from Denis Sexy IT 🤖
Что показали сегодня, анонсы в основном для разработчиков:

- O1 модели теперь поддерживают строгие JSON схемы на выходе (и это не повлияет на качество работы модели) и Functions calling (это когда модель должна выбрать какой-то скрипт сама по себе во время ответа), фичи которые давно есть у других моделей OpenAI

- Упомянули «Developers Messages» для O1 — штука, которая позволяет разработчиком «направить» модель в нужную сторону в процессе ответа, что-то вроде второго системного промпта, но слабее

- «Reasoning Effort» — вы теперь можете указать сколько времени O1-модель будет «размышлять» перед тем как ответить, ответы будут лучше, но дороже или можно запретить ей слишком много думать перед ответом пользователю

- O1 API теперь поддерживает картинки на вход

- Advanced Voice Mode API теперь работает с WebRTC, то есть голосового ассистента OpenAI будет проще встраивать на веб-страницы без особых мучений (12 строк кода и готово)

- Наконец-то цены на Advanced Voice Mode API понизили на 60%, и теперь доступна новая, в 10 раз дешевле, mini-аудио моделька

- Показали новый способ файнтюна моделей «Prefence Finetuning» — можно тренировать на парах данных, что нравится и не нравится в ответе модели, доступно с сегодня для gpt4o & gpt4o-mini

- Вышли новые SDK — для Go и для Java

Если честно затянуто немного со всеми этими днями, я бы списком почитал уже, еще 3 дня осталось
Forwarded from Machinelearning
⚡️ Новые разработки команды FAIR в области ИИ.

Подразделение FAIR компании Марка Цукерберга представила новые исследовательские результаты, направленные на развитие исследований в ИИ, а их открытая публикация должна способствовать ускорению общего прогресса:

🟢Motivo - базовая модель для управления виртуальными воплощенными агентами.

Модель обучена с применением нового алгоритма, который позволяет представлять состояния, движения и вознаграждения в едином латентном пространстве. Motivo демонстрирует высокую производительность в сравнении со специализированными методами, превосходит современные подходы неконтролируемого обучения с подкреплением и проявляет устойчивость к изменениям окружающей среды.
🟡Paper 🟡Demo 🟡Github

🟢Video Seal - система для нанесения водяных знаков на видео.

Метод добавляет незаметные водяные знаки, устойчивые к редактированию и сжатию, чтобы маркировать и отслеживать происхождение сгенерированных видеоматериалов. Video Seal является развитием предыдущей разработки Audio Seal.
🟡Paper 🟡Demo 🟡Github

🟢Flow Matching - генеративная парадигма для множества модальностей.

Метод, который постепенно заменяет классическую диффузию и повышает производительность и эффективность обобщения при создании изображений, видео, аудио и 3D-структур.
Он уже применяется в продуктах Movie Gen, Audiobox и Melody Flow, а также в Stable-Diffusion-3, Flux, Fold-Flow и Physical Intelligence Pi_0.
🟡Paper 🟡Github

🟢Explore Theory-of-Mind - техника генерации данных для обучения моделей теории разума.

Этот подход позволяет создавать разнообразные и сложные сценарии для обучения LLM. Экспериментальное применение Explore Theory-of-Mind с Llama-3.1 7B привело к увеличению точности на 27 пунктов на тесте ToMi.
🟡Paper 🟡Github 🟡Dataset

🟢Large Concept Model (LCM) - метод обучения языковых моделей, который предсказывает не следующий токен, а следующую концепцию.

Основная идея LCM заключается в том, чтобы отделить рассуждения от представления языка, и она вдохновлена тем, как люди могут планировать высокоуровневые мысли для общения. LCM значительно отличается от типичного LLM. Вместо того чтобы предсказывать следующую лексему, LCM обучается предсказывать следующую концепцию или идею высокого уровня, представленную полным предложением в мультимодальном и многоязычном пространстве эмбедингов.
🟡Paper 🟡Github

🟢Dynamic Byte Latent Transformer - иерархическая модель, работающая с байтами напрямую без токенизации.

DBLT превосходит модели на основе токенизаторов по надежности, в среднем на 7 пунктов, и отлично справляется с обработкой longtail и rare sequences of unseen symbols.
🟡Paper 🟡Github

🟢Memory Layers – метод масштабирования слоев памяти, повышающий фактологичность моделей.

Метод, который помогает эффективно хранить и извлекать информацию через специальные "слои памяти" без значительного роста вычислительных затрат. Он позволяет моделям работать лучше и точнее на задачах, связанных с фактами.
🟡Paper 🟡Github

🟢EvalGym - библиотека для оценки text-to-image моделей.

Она позволяет легко использовать воспроизводимые автоматические оценки T2I-моделей и поддерживает настройку с использованием пользовательских метрик, датасетов и визуализаций.
🟡Paper 🟡Github

🟢CLIP 1.2 - улучшенная версия vision-language энкодера.
🟡Paper 🟡Github 🟡Dataset 🟡Model


@ai_machinelearning_big_data

#AI #ML #FAIR #Digest
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Руй видео.

Вы будете смеяцца, но у нас новая опенсорсная видео модель. Причем image2video.

Ruyi is an image-to-video model capable of generating cinematic-quality videos at a resolution of 768, with a frame rate of 24 frames per second, totaling 5 seconds and 120 frames. It supports lens control and motion amplitude control. Using a RTX 3090 or RTX 4090, you can generate 512 resolution, 120 frames (or 768 resolution, ~72 frames) videos without any loss of quality.

https://github.com/IamCreateAI/Ruyi-Models


Поддержка видеогенерации в Комфи из коробки.

@p0lygon, что будем делать? Когда все это успеть протестировать?

@cgevent

И очень толково оформленный GitHub:
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 LTX VIDEO update 👌

Улучшенная модель и схемы
LTXV 0.9.1


📌 Удаляет артефакты "стробирующей текстуры" и генерирует лучшее движение
📌 Поддержка STG - интегрированная система деградации изображения для улучшенной генерации движения
📌 Улучшенный VAE
📌 Улучшенные подписи изображений для преобразования в видео поток

📎🔥 Модель ltx-video-2b-v0.9.1 СКАЧАТЬ

📎 Clip T5: СКАЧАТЬ
(но можно использовать от flux и sd3)

Схема Image-to-video: ССЫЛКА

Схема Text-to-video: ССЫЛКА


📎 Страница разработчика

🔥 Курс по "ComfyUI"
🔑 Уроки на Boosty
Forwarded from Life2film
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🌟 VidTok: Универсальный токенизатор видео от Microsoft.

VidTok – универсальный и открытый видео токенизатор, демонстрирующий высокую производительность как в непрерывной, так и в дискретной токенизации.

Токенизация видео, преобразующая исходные данные в компактные латентные токены - важнейший шаг для задач генерации и понимания видео. VidTok предлагает ряд улучшений, которые позволяют ему превзойти существующие методы: модельную архитектуру, методы квантования и стратегии обучения.

В архитектуре VidTok пространственное и временное сэмплирование обрабатываются раздельно, используя 2D свертки для пространственных модулей и оператор AlphaBlender для временных, при этом сохраняя 3D свертки для слияния информации.

Для дискретной токенизации используется конечное скалярное квантование (FSQ), которое оптимизирует неявный кодовый словарь, улучшая стабильность обучения. Эффективность обучения достигается двухэтапной стратегией: предварительное обучение на видео с низким разрешением, а затем дообучение декодера на видео с высоким разрешением.

VidTok обучался на датасете видеоданных с разным разрешением (400 000 видео 480p и 10 000 видео 1080p). Производительность измерялась с использованием метрик PSNR, SSIM, LPIPS и FVD, результаты показали превосходство VidTok по сравнению с другими токенизаторами как в дискретной, так и в непрерывной токенизации.

При сравнении с MAGVIT-v2, OmniTokenizer, CV-VAE, Open-Sora и Cosmos-Tokenizer, VidTok достиг лучших показателей, с меньшим размером модели.

▶️ В открытый доступ опубликованы 12 чекпоинтов, расшифровка нейминга:

🟢vidtok - базовое название;
🟢kl или fsq - тип регуляризации и квантования латентного пространства;
🟢causal или noncausal - тип обработки временной информации (покадрово или все кадры сразу);
🟢488 или 41616 - компрессионное соотношение (VCR), которое определяет степень сжатия видео по времени, высоте и ширине. Например, 4x8x8 и 4x16x16;
🟢4chn, 8chn или 16chn - количество каналов в латентном пространстве для непрерывных токенизаторов. Чем больше каналов - тем качественней видео;
🟢262144, 32768 или 4096 - размер codebook для дискретных токенизаторов с использованием FSQ. Чем больше - тем точнее представлятся информация.


▶️Локальная установка и пример запуска как для непрерывной, так и для дискретной токенизации и как для каузальных, так и для некаузальных моделей:

# Clone repo
git clone https://github.com/microsoft/VidTok
cd VidTok

# Create conda env
conda env create -f environment.yaml
conda activate vidtok

# Inference
import torch
from scripts.inference_evaluate import load_model_from_config

cfg_path = "configs/vidtok_kl_causal_488_4chn.yaml"
ckpt_path = "checkpoints/vidtok_kl_causal_488_4chn.ckpt"
is_causal = True

device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
# load pre-trained model
model = load_model_from_config(cfg_path, ckpt_path)
model.to(device).eval()
# random input
num_frames = 17 if is_causal else 16
x_input = (torch.rand(1, 3, num_frames, 256, 256) * 2 - 1).to(device) # [B, C, T, H, W], range -1~1
# model forward
_, x_recon, _ = model(x_input)
assert x_input.shape == x_recon.shape


📌Лицензирование: MIT License.


🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Microsoft #VidTok
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 На GitHub вирусится ScreenPipe — ваш личный ИИ-ассистент, который беспрерывно записывает экран ПК вместе с микрофоном и сохраняет контекст всей (!) вашей цифровой активности.

Нейронка напишет саммари рабочего дня, подведёт итоги созвона, составит логи разработки, ответит на сообщения на основе прошлых переписок и даже продолжит кодить с того места, где вы остановились.

Важно: тулза хранит все данные локально на устройстве и работает без интернета! Джарвис уже лежит тут.

@notboring_tech
Forwarded from Machinelearning
🌟 Google Cloud собрала 321 реальный пример использования GenAI от ведущих мировых компаний.

Большая подборка примеров внедрения генеративного ИИ от ведущих компаний, правительств, исследовательских институтов и стартапов по всему миру. Они демонстрируют, как организации используют ИИ-агентов для повышения производительности, автоматизации процессов и улучшения клиентского опыта, что в итоге приводит к ощутимой отдаче от инвестиций.

▶️ Розничная торговля

🟢Best Buy использует Gemini для создания виртуального ассистента, способного решать проблемы с продуктами и управлять доставками;
🟢BrainLogic использует Claude для персонального ИИ-ассистента Zapia, ориентированного на латиноамериканский рынок;
🟢Carrefour Taiwan разработал AI Sommelier, который помогает клиентам выбирать вино.

▶️ Автоконцерны

🟠Continental интегрировал разговорный ИИ в Smart Cockpit HPC, решение для управления речевыми командами в автомобиле;
🟠General Motors улучшила OnStar с помощью разговорного помощника, который лучше распознают намерения собеседника;
🟠Volkswagen создал виртуального ассистента в приложении myVW, который помогает водителям изучать руководства и задавать вопросы.

▶️ Здравоохранение

🟢Freenome разрабатывает диагностические тесты на основе ИИ для раннего выявления рака;
🟢Orby применяет ИИ и нейротехнологии для реабилитации пациентов.

▶️Финансы

🟠NG Bank разработал чат-бота для поддержки сотрудников, чтобы повысить качество ответов на запросы клиентов.
🟠Scotiabank использует Gemini для персонализации клиентского опыта.

▶️Производство

🟢Motorola использует Gemini и Imagen для улучшения UX/UI смартфонов;
🟢Samsung применяет Gemini Pro и Imagen 2 в Galaxy S24 для обработки текста и редактирования изображений;
🟢ScottsMiracle-Gro создал ИИ-агента для консультаций по садоводству.

▶️ Госсектор

🟠Justicia Lab разрабатывает AI-помощника для упрощения юридических процессов для иммигрантов;
🟠Министерство труда Катара запустило платформу Ouqoul для поиска работы выпускниками-экспатами.

▶️ Медиа

🟢Formula E может создает 2-минутные подкасты на любом языке из двухчасовых комментариев.
🟢Globant разработала Advance Video Search для поиска контента по кадрам.


🔜 Читать полную подборку примеров


@ai_machinelearning_big_data

#ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/06 20:19:04
Back to Top
HTML Embed Code: