Постійно оновлюєш CV, але все одно щось не так?
Validowl допоможе виділитися серед інших кандидатів і наблизить тебе до бажаного оферу значно швидше. Бо Validowl — це більше, ніж просто CV. Це платформа, на якій ти можеш:
✨ Створити професійний профіль всього за 5 хвилин
📄 Згенерувати сучасне CV за допомогою AI
📩 Отримати пропозиції від потенційний роботодавців
🛠 Зібрати всі відгуки від роботодавців і колег в одному місці
📊 Сформувати свій власний рейтинг
Безкоштовно. Швидко. І з вау-ефектом.
Validowl допоможе виділитися серед інших кандидатів і наблизить тебе до бажаного оферу значно швидше. Бо Validowl — це більше, ніж просто CV. Це платформа, на якій ти можеш:
✨ Створити професійний профіль всього за 5 хвилин
📄 Згенерувати сучасне CV за допомогою AI
📩 Отримати пропозиції від потенційний роботодавців
🛠 Зібрати всі відгуки від роботодавців і колег в одному місці
📊 Сформувати свій власний рейтинг
Безкоштовно. Швидко. І з вау-ефектом.
🕶 Які незвичайні функції є в окулярів Ray-Ban Meta?
Перші окуляри Ray-Ban Meta вийшли 2021 року і, здавалося, були придатні тільки для незвичайних фото. Але друге покоління окулярів 2023 року отримало цілий набір ШІ-фішок, які перетворили їх на справжній гаджет майбутнього.
Зібрали найнезвичайніші сценарії використання "розумних" окулярів:
1️⃣ Носимий асистент. Функція Live AI дає змогу розмовляти з окулярами, складати нотатки або нагадування та отримувати відповіді на запитання про будь-які предмети, які бачить камера гаджета. Наприклад, можна відкрити холодильник і запитати в окулярів, що приготувати на обід із наявних продуктів, або попросити асистента розповісти історію цікавої пам'ятки.
2️⃣ Шпигун у модних окулярах. Студенти Гарварду перетворили Ray-Ban Meta на систему визначення особистості. Окуляри вміють вести прямий ефір - алгоритм обробляє стрім, знаходить обличчя людей у кадрі та інформацію про них в інтернеті. Студенти за секунди змогли з'ясувати особисті дані випадкових перехожих: домашні адреси, номери телефонів і навіть імена родичів.
3️⃣ Допомога людям зі слабким зором. Окуляри можуть описати обстановку навколо, розпізнати таблички або номер автобуса, прочитати вголос книжку і допомогти з готуванням.
4️⃣ Переклад розмови в реальному часі. Затримка - лише кілька секунд, бесіда також транслюється в додаток-компаньйон. Поки що підтримуються лише чотири мови: іспанська, французька, італійська та англійська.
5️⃣ Пошук машини на стоянці. Окуляри запам'ятають, де ви залишили авто, і вбережуть від блукання паркінгом.
Перші окуляри Ray-Ban Meta вийшли 2021 року і, здавалося, були придатні тільки для незвичайних фото. Але друге покоління окулярів 2023 року отримало цілий набір ШІ-фішок, які перетворили їх на справжній гаджет майбутнього.
Зібрали найнезвичайніші сценарії використання "розумних" окулярів:
1️⃣ Носимий асистент. Функція Live AI дає змогу розмовляти з окулярами, складати нотатки або нагадування та отримувати відповіді на запитання про будь-які предмети, які бачить камера гаджета. Наприклад, можна відкрити холодильник і запитати в окулярів, що приготувати на обід із наявних продуктів, або попросити асистента розповісти історію цікавої пам'ятки.
2️⃣ Шпигун у модних окулярах. Студенти Гарварду перетворили Ray-Ban Meta на систему визначення особистості. Окуляри вміють вести прямий ефір - алгоритм обробляє стрім, знаходить обличчя людей у кадрі та інформацію про них в інтернеті. Студенти за секунди змогли з'ясувати особисті дані випадкових перехожих: домашні адреси, номери телефонів і навіть імена родичів.
3️⃣ Допомога людям зі слабким зором. Окуляри можуть описати обстановку навколо, розпізнати таблички або номер автобуса, прочитати вголос книжку і допомогти з готуванням.
4️⃣ Переклад розмови в реальному часі. Затримка - лише кілька секунд, бесіда також транслюється в додаток-компаньйон. Поки що підтримуються лише чотири мови: іспанська, французька, італійська та англійська.
5️⃣ Пошук машини на стоянці. Окуляри запам'ятають, де ви залишили авто, і вбережуть від блукання паркінгом.
❤3👍1🔥1
Media is too big
VIEW IN TELEGRAM
🤖 Навіщо нам потрібні гуманоїдні роботи?
Наш світ побудований виключно для людини: будівлі сповнені сходів і дверей, склади - полиць на рівні плечей і так далі. Тому саме роботи з людською статурою - ключ до нової революції в автоматизації виробництва, вважають експерти.
Роботи Digit, розроблені стартапом Agility Robotics, стали першими "кіберспівробітниками" логістичної компанії GXO Logistics. Завдання Digit - акуратно перекладати контейнери з товаром на стрічку. Скоро Digit стануть проміжною ланкою між простими конвеєрними машинами і людьми, які виконують цілий спектр завдань, впевнені творці роботів.
Ключова перевага андроїдів - здатність виконувати більше одного завдання.
- розповідає директор з автоматизації GXO Logistics Адріан Стох.
Відправною точкою для повсюдного впровадження роботів стане їхнє здешевлення, зазначають в Agility Robotics.
Іншим поворотним моментом стане розробка універсального робомозку. Тут у гру вступає, наприклад, Nvidia, що створює софт для навчання роботів на симуляціях реального світу. Прорив у робототехніці - яким ChatGPT став для розвитку ШІ та нейромереж - уже не за горами, вважає CEO Nvidia Дженсен Хуанг.
Наш світ побудований виключно для людини: будівлі сповнені сходів і дверей, склади - полиць на рівні плечей і так далі. Тому саме роботи з людською статурою - ключ до нової революції в автоматизації виробництва, вважають експерти.
Роботи Digit, розроблені стартапом Agility Robotics, стали першими "кіберспівробітниками" логістичної компанії GXO Logistics. Завдання Digit - акуратно перекладати контейнери з товаром на стрічку. Скоро Digit стануть проміжною ланкою між простими конвеєрними машинами і людьми, які виконують цілий спектр завдань, впевнені творці роботів.
Ключова перевага андроїдів - здатність виконувати більше одного завдання.
"У майбутньому Digit буде щодня виконувати безліч функцій: розвантажувати продукцію вранці, відбирати товари вдень і завантажувати вантажівки ввечері"
- розповідає директор з автоматизації GXO Logistics Адріан Стох.
Відправною точкою для повсюдного впровадження роботів стане їхнє здешевлення, зазначають в Agility Robotics.
Іншим поворотним моментом стане розробка універсального робомозку. Тут у гру вступає, наприклад, Nvidia, що створює софт для навчання роботів на симуляціях реального світу. Прорив у робототехніці - яким ChatGPT став для розвитку ШІ та нейромереж - уже не за горами, вважає CEO Nvidia Дженсен Хуанг.
❤2👏2🔥1
Тут говорять про важливе. І відчувають на повну.
💜 Небайдужа — телеграм-канал для жінок, які хочуть не просто вижити, а жити зі змістом, попри війну й виклики.
Підписуйся, якщо хочеш читати те, що резонує 👉 https://www.tg-me.com/notindifferent
💜 Небайдужа — телеграм-канал для жінок, які хочуть не просто вижити, а жити зі змістом, попри війну й виклики.
Підписуйся, якщо хочеш читати те, що резонує 👉 https://www.tg-me.com/notindifferent
Media is too big
VIEW IN TELEGRAM
🎞 ANCESTRA - фільм студії Даррена Аронофскі, створений з Google Veo
ANCESTRA - перша спільна робота студії Primordial Soup режисера "Реквієму за мрією" і "Чорного лебедя" Даррена Аронофскі та Google DeepMind. Прем'єра відбулася на фестивалі Tribeca 13 червня.
Режисерка Еліза Макнітт перетворила історію свого народження на кінематографічний ШІ-експеримент. Коли її вагітна мати прийшла на огляд до лікарні, лікарі знайшли в Елізи небезпечну ваду серця. Щоб врятувати дівчинку, довелося провести термінову операцію.
🎬 Як знімали?
Фільм частково знято наживо, але ключові сцени, які неможливо зняти в реальності, створювали з ШІ. Наприклад, Gemini за дитячими фотографіями Макнітт написав детальний промпт, який використовували для генерації образу немовляти через Imagen. Далі його анімували за допомогою Veo. Також ШІ допоміг створити детальні анімації та складні переходи.
- каже Макнітт.
Загалом над фільмом працювало понад 200 осіб.
📺 Що далі?
ANCESTRA - перша з трьох ШІ-робот у рамках експерименту DeepMind і студії Аронофскі.
Google DeepMind надає студії ранній доступ до новітніх інструментів, а кінематографісти допомагають компанії вдосконалювати технології, тестуючи їх у реальних завданнях.
📱 Переглянути фільм повністю можна тут.
ANCESTRA - перша спільна робота студії Primordial Soup режисера "Реквієму за мрією" і "Чорного лебедя" Даррена Аронофскі та Google DeepMind. Прем'єра відбулася на фестивалі Tribeca 13 червня.
Режисерка Еліза Макнітт перетворила історію свого народження на кінематографічний ШІ-експеримент. Коли її вагітна мати прийшла на огляд до лікарні, лікарі знайшли в Елізи небезпечну ваду серця. Щоб врятувати дівчинку, довелося провести термінову операцію.
🎬 Як знімали?
Фільм частково знято наживо, але ключові сцени, які неможливо зняти в реальності, створювали з ШІ. Наприклад, Gemini за дитячими фотографіями Макнітт написав детальний промпт, який використовували для генерації образу немовляти через Imagen. Далі його анімували за допомогою Veo. Також ШІ допоміг створити детальні анімації та складні переходи.
"Veo - це ще один об'єктив, через який я можу уявити всесвіт, який мене оточує",
- каже Макнітт.
Загалом над фільмом працювало понад 200 осіб.
📺 Що далі?
ANCESTRA - перша з трьох ШІ-робот у рамках експерименту DeepMind і студії Аронофскі.
Google DeepMind надає студії ранній доступ до новітніх інструментів, а кінематографісти допомагають компанії вдосконалювати технології, тестуючи їх у реальних завданнях.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🎵 Зіграти ноктюрн? Робот MAiRA - зміг би
Дрезденський симфонічний оркестр відзначив 25-річчя незвично: в одному з відділень диригував робот MAiRA від Neura Robotics.
💡 Ідея з'явилася у художнього керівника оркестру Маркуса Ріндта ще 23 роки тому. Одного разу на репетиції один із фаготистів обурився: "Ви диригуєте кларнетами в розмірі 3/4, а у мене 5/8. Що мені робити, коли мені ніхто не диригує?" На що диригент відповів: "Я не робот".
Для реалізації проєкту Ріндт співпрацював із "Центром тактильного інтернету" Технічного університету Дрездена, в якому вивчають, як роботи і люди можуть працювати разом.
MAiRA - один із найбільш просунутих роботів на сьогодні: він "бачить", "чує" і "відчуває" завдяки 3D-датчикам і ШІ. На його створення пішло два роки.
📌 Спеціально для концерту композитор Андреас Гундлах написав "Шедевр напівпровідника" для 16 духових музикантів і 4 ударників, які грають із різко розбіжними ритмами. За його словами, MAiRA об'єднала їх у єдине звучання.
Дрезденський симфонічний оркестр відзначив 25-річчя незвично: в одному з відділень диригував робот MAiRA від Neura Robotics.
💡 Ідея з'явилася у художнього керівника оркестру Маркуса Ріндта ще 23 роки тому. Одного разу на репетиції один із фаготистів обурився: "Ви диригуєте кларнетами в розмірі 3/4, а у мене 5/8. Що мені робити, коли мені ніхто не диригує?" На що диригент відповів: "Я не робот".
Для реалізації проєкту Ріндт співпрацював із "Центром тактильного інтернету" Технічного університету Дрездена, в якому вивчають, як роботи і люди можуть працювати разом.
MAiRA - один із найбільш просунутих роботів на сьогодні: він "бачить", "чує" і "відчуває" завдяки 3D-датчикам і ШІ. На його створення пішло два роки.
📌 Спеціально для концерту композитор Андреас Гундлах написав "Шедевр напівпровідника" для 16 духових музикантів і 4 ударників, які грають із різко розбіжними ритмами. За його словами, MAiRA об'єднала їх у єдине звучання.
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
📹 Midjourney випустила ШІ-генератор відео
Midjourney представила V1 - першу версію своєї нейромережі для створення відео.
Модель може в один клік оживити створену в Midjourney картинку - промпт ШІ напише сам. Але також розробники залишають можливість завантажувати власні зображення.
Інші особливості:
📎 Два режими роботи з рухом: Low - для повільних або статичних сцен, High - додає більше динаміки в кадр, але й допускає більше артефактів.
📎 Довжина ролика до 5 секунд, але його можна продовжити до 4 разів, почавши генерацію з останнього кадру.
📎 Модель створює 4 генерації за одну спробу, генерація ролика коштує приблизно у 8 разів дорожче за створення картинки.
🪐 Midjourey прагне створити ШІ-моделі, які в реальному часі симулюють світ. Першим кроком була генерація зображень, другим - відео. Далі компанія збирається рухатися в бік просторових 3D-моделей і прискорювати генерацію до максимального рівня.
💰 Водночас компанія принципово не залучає венчурних грошей і живе тільки за рахунок власної виручки. Щоб покрити витрати, створення відео поки що доступне тільки для платних передплатників. У майбутньому собівартість генерацій знизиться, впевнені в Midjourney.
🔜 Спробувати модель уже можна на сайті Midjourney.
Midjourney представила V1 - першу версію своєї нейромережі для створення відео.
Модель може в один клік оживити створену в Midjourney картинку - промпт ШІ напише сам. Але також розробники залишають можливість завантажувати власні зображення.
Інші особливості:
📎 Два режими роботи з рухом: Low - для повільних або статичних сцен, High - додає більше динаміки в кадр, але й допускає більше артефактів.
📎 Довжина ролика до 5 секунд, але його можна продовжити до 4 разів, почавши генерацію з останнього кадру.
📎 Модель створює 4 генерації за одну спробу, генерація ролика коштує приблизно у 8 разів дорожче за створення картинки.
🪐 Midjourey прагне створити ШІ-моделі, які в реальному часі симулюють світ. Першим кроком була генерація зображень, другим - відео. Далі компанія збирається рухатися в бік просторових 3D-моделей і прискорювати генерацію до максимального рівня.
💰 Водночас компанія принципово не залучає венчурних грошей і живе тільки за рахунок власної виручки. Щоб покрити витрати, створення відео поки що доступне тільки для платних передплатників. У майбутньому собівартість генерацій знизиться, впевнені в Midjourney.
🔜 Спробувати модель уже можна на сайті Midjourney.
❤2
ByteDance випустив Seedance 1.0 - зараз найкращий генератор Al-video за версією
Artificial Analysis.
Перетворює текст або зображення на короткі 5-секундні відеоролики з різкою анімацією, стабільними персонажами та плавними переходами між камерами.
Підтримує multiview storytelling - замість однієї сцени створює повноцінні відеоряди з логічним розвитком.
Seedance обіграв Google Veo 3, OpenAl Sora u
Kling 2.1 від Kuaisnou. посідає 1-е місце як у створенні текстового, так і в створенні графічного відео. Чудово працює з деталізованими підказками та стабільно зберігає стиль між сценами. Підтримує фотореалізм, аніме та відчуває ритм між кадрами.
У y Veo 3 є плюс - вбудований звук, завдяки якому відео може здаватися більш завершеним. Але в усіх тестах Seedance - лідер.
Artificial Analysis.
Перетворює текст або зображення на короткі 5-секундні відеоролики з різкою анімацією, стабільними персонажами та плавними переходами між камерами.
Підтримує multiview storytelling - замість однієї сцени створює повноцінні відеоряди з логічним розвитком.
Seedance обіграв Google Veo 3, OpenAl Sora u
Kling 2.1 від Kuaisnou. посідає 1-е місце як у створенні текстового, так і в створенні графічного відео. Чудово працює з деталізованими підказками та стабільно зберігає стиль між сценами. Підтримує фотореалізм, аніме та відчуває ритм між кадрами.
У y Veo 3 є плюс - вбудований звук, завдяки якому відео може здаватися більш завершеним. Але в усіх тестах Seedance - лідер.