Я почав вести щоденний технічний блог про штучний інтелект та машинне навчання на Substack. Він для власне розробників та інженерів та дотичних людей, але навіть для початківців ок. Короткі пости, орієнтовні на навчання - з посиланнями на статті, книги, та курси. Це індивідуальна підбірка тем, які я вважаю перспективними/цікавими, тобто його треба сприймати не як якийсь цілісний курс чи серію статей, а як доповнення до самоосвіти для людей, яких цікавлять не дуже стандартні теми в AI/ML. Блог майже суто технічний, без «філософії», але з певним фокусом на AGI та не без спекуляцій. Ціль - надавати перший легкий вступ у нові теми та ресурси для їх подальшого вивчення, якщо стає цікаво вивчати це більш детально.
https://open.substack.com/pub/kendiukhov?r=4qe2x&utm_medium=ios
https://open.substack.com/pub/kendiukhov?r=4qe2x&utm_medium=ios
Substack
Mind Bytes | Ihor | Substack
Tips, reflections, and insights on AI and related tech. Click to read Mind Bytes, by Ihor, a Substack publication. Launched 2 months ago.
Певний час тому я створив короткий файл - неформальну частину саммарі про себе для того, щоб полегшити життя тим, з ким починаю спілкуватися або іншим чином взаємодіяти (адже не все напишеш в лінкедині). Можливо, буде корисно вам як читачам мого каналу, особливо новим, щоб розуміти певні речі про мої переконання та пріоритети: https://docs.google.com/document/d/1-21XzHPp4kMctaiyJxuC6wolsW1XkqPQ_y4HIKcTXD4/edit?usp=sharing. Частина фактів - рандомний мікс, але вважаю, що все одно може бути корисно.
Google Docs
Facts about me
Homo Technicus
Намагаючись зрозуміти, що може бути далі відбуватися із ШІ та за яких умов, я прийшов до певної моделі в свої голові. Написав про це статтю: https://kendiukhov.medium.com/whispers-of-singularity-c0bb03bb506d?source=friends_link&sk=ca1dc98ff5685a0f9d969b2109850e86
Nvidia відкрилася зеленою після квартальної звітності. І не просто зеленою - all-time high. Навіть я не вірив, що це відбудеться, після божевільного зростання до цього. Думав, що впаде на якийсь час після звітності.
Але ні. Події розвиваються по найбільш радикальному сценарію - серед тих, які взагалі можна було заздалегідь вважати більш-менш можливими.
Хто має вуха, нехай чує!
Але ні. Події розвиваються по найбільш радикальному сценарію - серед тих, які взагалі можна було заздалегідь вважати більш-менш можливими.
Хто має вуха, нехай чує!
Я хочу сказати ще декілька слів для читачів - як нових, так і старих - стосовно того, про що я планую писати на цьому каналі та що від нього очікувати, а також трохи про еволюцію та стан власних переконань.
Я почав вести та активно вів Homo Technicus в ті часи свого життя, які я зараз називаю "епохою класичного трансгуманізму" та датую 2017-2020 роками. Ну, з назви напевно зрозуміло - він був про прогрес, сингулярність, штучний інтелект, технологічне покращення людей, боротьбу зі старінням, колонізацію космосу розвиток когнітивних здібностей, екстропіанство, наукову фантастику, економічні та технологічні прогнози, раціональність - словом, стандартний трансгуманістичний набір.
Одразу хочу сказати - я продовжую підтримувати цей трансгуманістичний набір.
Але є одна відмінність. Є одна помилка, яку я допустився тоді і яка робить усю цю діяльність трохи... беззмістовною? Я недооцінив темпи розвитку ШІ і переоцінив темпи розвитку деяких інших технологій - насамперед, біотехнологій та космічних технологій. Також я не розумів фундаментальних проблем із контролем ШІ.
Коли я у 2018 році розповідав про "Сингулярність", то мені здається тепер, що я або сам не дуже вірив у те, що це відбудеться у відносно близькому майбутньому, або не дуже розумів, про що говорю. Мені здається, що я б діяв доволі інакше, якби я розумів, про що я говорю.
Я був дуже оптимістичним у тому, де було комфортно бути оптимістичним, і дуже скептичним там, де можна було отримати некомфортні висновки, і потім я не оновлював свої переконання достатньо швидко.
І тепер вже 2024 рік. Запізно? Можливо, було запізно вже тоді, коли еволюція створила людство таким, яким вона його створила. І тепер я думаю про те, про що повинен був подумати 5 років тому.
Надрозумний штучний інтелект насувається. Часу на те, щоб створити людей конкурентними за допомогою кібернетичних чи біотехнологічних покращень, нема. Часу на те, щоб втекти на інші планети, нема. Ідей про те, як зробити надрозумний штучний інтелект дружнім, нема.
Не те що б я вважаю це неминучим. Скільки б я дав відсотків на Сингулярність у 21 столітті? Може, 40, може 60. Може, я дуже помиляюся, і це всього 5%. Але навіть цього більш ніж достатньо, щоб готуватися як скажений. Якщо цього не станеться, у найгіршому випадку люди просто посміються, але як я люблю казати, краще виглядати смішним, ніж бути мертвим.
Саме про це я планую писати. Прогнозувати. Готуватися. Якщо можна, отримати якусь користь на шляху, або принаймні не втратити все. Якщо помиляюся, то дізнатися про це.
Я почав вести та активно вів Homo Technicus в ті часи свого життя, які я зараз називаю "епохою класичного трансгуманізму" та датую 2017-2020 роками. Ну, з назви напевно зрозуміло - він був про прогрес, сингулярність, штучний інтелект, технологічне покращення людей, боротьбу зі старінням, колонізацію космосу розвиток когнітивних здібностей, екстропіанство, наукову фантастику, економічні та технологічні прогнози, раціональність - словом, стандартний трансгуманістичний набір.
Одразу хочу сказати - я продовжую підтримувати цей трансгуманістичний набір.
Але є одна відмінність. Є одна помилка, яку я допустився тоді і яка робить усю цю діяльність трохи... беззмістовною? Я недооцінив темпи розвитку ШІ і переоцінив темпи розвитку деяких інших технологій - насамперед, біотехнологій та космічних технологій. Також я не розумів фундаментальних проблем із контролем ШІ.
Коли я у 2018 році розповідав про "Сингулярність", то мені здається тепер, що я або сам не дуже вірив у те, що це відбудеться у відносно близькому майбутньому, або не дуже розумів, про що говорю. Мені здається, що я б діяв доволі інакше, якби я розумів, про що я говорю.
Я був дуже оптимістичним у тому, де було комфортно бути оптимістичним, і дуже скептичним там, де можна було отримати некомфортні висновки, і потім я не оновлював свої переконання достатньо швидко.
І тепер вже 2024 рік. Запізно? Можливо, було запізно вже тоді, коли еволюція створила людство таким, яким вона його створила. І тепер я думаю про те, про що повинен був подумати 5 років тому.
Надрозумний штучний інтелект насувається. Часу на те, щоб створити людей конкурентними за допомогою кібернетичних чи біотехнологічних покращень, нема. Часу на те, щоб втекти на інші планети, нема. Ідей про те, як зробити надрозумний штучний інтелект дружнім, нема.
Не те що б я вважаю це неминучим. Скільки б я дав відсотків на Сингулярність у 21 столітті? Може, 40, може 60. Може, я дуже помиляюся, і це всього 5%. Але навіть цього більш ніж достатньо, щоб готуватися як скажений. Якщо цього не станеться, у найгіршому випадку люди просто посміються, але як я люблю казати, краще виглядати смішним, ніж бути мертвим.
Саме про це я планую писати. Прогнозувати. Готуватися. Якщо можна, отримати якусь користь на шляху, або принаймні не втратити все. Якщо помиляюся, то дізнатися про це.
Я для себе вже неоднократно переконувався, що дуже ефективний спосіб робити прогнози - це використовувати ринки прогнозів. Вони працюють таким чином: ставиться питання і надаються конкретні умови, за яких питання буде закрито з відповіддю «так». Потім люди можуть ставити на підвищення чи зменшення ймовірності. Якщо подія «так» реалізується, то виплати отримують ті, хто ставив на підвищення ймовірності, і навпаки (пропорційно до своїх ставок). Дуже важливо і те, що продавати свої «акції» можна і до того, як подія відбулася - не треба чекати її настання чи ненастання. Наприклад, ви поставили на кандидата Х на американських виборах. З часом, ймовірність того, що він переможе, збільшилася, і це означає, що ви можете продати свою ставку і отримати прибуток. Якщо ймовірність навпаки, зменшилася, ви теж можете продати свою ставку, але з мінусом для себе. Сам я використовую Manifold Markets, і кожному рекомендую зареєструватися і спробувати також.
Окрім того, щоб використовувати його для оцінки ймовірностей важливих подій у майбутньому, він корисний наступним:
1. Ви можете самі інвестувати в ймовірності на ринках. Кожному при реєстрації дається певна кількість безкоштовної мани - віртуальної «валюти», яка використовується на ринку. Здійснюючи торгівлю, ви побачите, наскільки якісно чи навпаки неякісно ви робите прогнози, для вас автоматично з часом буде сформована крива калібрування ваших прогнозів, яка показує, наскільки обʼєктивні ви виявилися у ваших прогнозах. Якщо ви робите прогнози успішно, ви просунутися в рейтингу, і вас помітять.
2. Це працює і в зворотній бік - ви можете оцінювати ступінь адекватності інших людей, коли вони вам щось «прогнозують». Коли мене хтось намагається переконати у власному прогнозі - я говорю: покажи мені свою криву калібрування.
3. Зароблену ману можна донатити, конвертуючи в долари, на різні non-profit цілі, в тому числі на допомогу ЗСУ. Важливо: ману не можна виводити собі (це регуляторне обмеження), але Manifold Markets може її конвертувати у реальні донати для перевірених NGO - їх перелік є на сайті. Там є в організації, які займаються допомогою Україні.
Питання там є на будь-який смак, але здебільшого стосуються технологій, політики та економіки. Є, наприклад, питання про те, коли і як закінчиться російсько-українська війна, коли зʼявиться AGI, чи буде третя світова, чи досягне Nvidia капіталізації в 2 трлн цього року, хто переможе на американських виборах.
Окрім того, щоб використовувати його для оцінки ймовірностей важливих подій у майбутньому, він корисний наступним:
1. Ви можете самі інвестувати в ймовірності на ринках. Кожному при реєстрації дається певна кількість безкоштовної мани - віртуальної «валюти», яка використовується на ринку. Здійснюючи торгівлю, ви побачите, наскільки якісно чи навпаки неякісно ви робите прогнози, для вас автоматично з часом буде сформована крива калібрування ваших прогнозів, яка показує, наскільки обʼєктивні ви виявилися у ваших прогнозах. Якщо ви робите прогнози успішно, ви просунутися в рейтингу, і вас помітять.
2. Це працює і в зворотній бік - ви можете оцінювати ступінь адекватності інших людей, коли вони вам щось «прогнозують». Коли мене хтось намагається переконати у власному прогнозі - я говорю: покажи мені свою криву калібрування.
3. Зароблену ману можна донатити, конвертуючи в долари, на різні non-profit цілі, в тому числі на допомогу ЗСУ. Важливо: ману не можна виводити собі (це регуляторне обмеження), але Manifold Markets може її конвертувати у реальні донати для перевірених NGO - їх перелік є на сайті. Там є в організації, які займаються допомогою Україні.
Питання там є на будь-який смак, але здебільшого стосуються технологій, політики та економіки. Є, наприклад, питання про те, коли і як закінчиться російсько-українська війна, коли зʼявиться AGI, чи буде третя світова, чи досягне Nvidia капіталізації в 2 трлн цього року, хто переможе на американських виборах.
Manifold
Manifold | The Most Popular Prediction Markets
Manifold is the world's largest prediction market. Bet on news, politics, science, AI, and more with play-money. Accurate forecasts via the wisdom of the crowd.
Чи це працює на практиці? Так! Ось крива калібрування для ринку в цілому. Вона показує, наскільки точними виявляються в кінцевому рахунку ймовірності, що оцінюються ринком. Майже ідеальна. Якби регулятори дозволяли торгувати реальними грошима - впевнений, що не можна було б відрізнити від ідеальної.
Також можете підписуватися на мій профіль на Manifold Markets і слідкувати за прибутковістю мого портфелю прогнозів - і з часом бачити, балабол я чи ні.
Manifold
Ihor Kendiukhov (@IhorKendiukhov)
Цікаве відео-агітація проти автономних дронів-вбивць, але це саме те, що потрібно Україні.
https://youtu.be/O-2tpwW0kmU?si=v73evhSyUKXnz2SC
https://youtu.be/O-2tpwW0kmU?si=v73evhSyUKXnz2SC
YouTube
Sci-Fi Short Film “Slaughterbots” | DUST
In a dystopian world a new form of A.I. weaponry has been created. All these drone bots need is a profile: age, sex, fitness, uniform, and ethnicity. Nuclear is obsolete. Take out your entire enemy virtually risk free. Just characterize him, release the swarm…
Написав про те, що можна робити, готуючись до найгіршого сценарію із ШІ. https://medium.com/predict/plan-b-to-prepare-for-artificial-superintelligence-ae0fea98bbd7
Medium
Plan B to Prepare for Artificial Superintelligence
What We Do if Alignment Fails
Людина з OpenAI написала прогноз по ШІ у 2021 році до 2026 року. Почитайте, що було спрогнозовано до 2024 року, і що прогнозується далі - https://www.lesswrong.com/posts/6Xgy6CAf2jqHhynHL/what-2026-looks-like.
Lesswrong
What 2026 looks like — LessWrong
Daniel Kokotajlo presents his best attempt at a concrete, detailed guess of what 2022 through 2026 will look like, as an exercise in forecasting. It…
Питання, яке може цікавити багатьох, враховуючи те, що я пишу про ШІ: які висновки ми можемо зробити в контексті України та російсько-української війни?
Я цілеспрямовано збираються не робити якогось аналізу військового характеру, тому що я не фахівець, і тому що не обовʼязково щось повинно мати прямі моментальні наслідки для війни, навіть якщо це питання одразу постає в голові.
Але я думаю, що незалежно від військової сторони справи, можна сказати наступне:
В діапазоні 2026-2030 років, якщо до цього (а) не почнеться війна з Китаєм і (б) не оберуть Трампа (що є великим питанням), США як країна отримають практично нездоланну стратегічну перевагу у вигляді якогось ШІ (який можна називати чи не називати general або superintelligence, що для цього контексту неважливо) - таку, що, з одного боку, США буде перемогти неможливо, а з іншого, для США буде легко перемогти будь-кого. Коли це станеться, то становище для Росії і її союзників критично погіршиться.
США - не надійний союзник для України. Україна для США - другорядна проблема, і з часом буде ставати все більш другорядною. Але США не зможуть мати такий потужний важіль і не задіяти його, чи принаймні, нехай навіть не цілеспрямовано, не налякати ним.
Знову ж таки, якщо Трампа не оберуть і не буде війни з Китаєм, то я вважаю, що 2026 рік - це граничний термін, коли стане зрозуміло, чи відбудеться це неминуче, чи ні.
Чому я так вважаю? Повна відповідь на це питання дуже довга.
Якщо коротко, то:
1. Компанії США, особливо OpenAI, абсолютні лідери в ШІ, і вони відриваються ще далі. Пройшов рік з моменту виходу ChatGPT-4, і ніхто досі не зробив нічого краще. І станом на зараз, в OpenAI абсолютно точно є як мінімум ChatGPT-4.5, і скоріше за все, щось ще.
2. Абсолютно точно, що Пентагон співпрацює з ними. OpenAI нещодавно видалили пункт про незастосування свого ШІ в оборонних цілях зі своїх принципів.
3. Поточні здатності ШІ більші, ніж ми бачимо відкрито. По-перше, OpenAI має більше, ніж показує, а показує вона повільно, як ми це побачили з Sora. По-друге, Sora сама по собі - щось набагато більше і потужніше, ніж здається. По-третє, версії ШІ, які не були лоботимізовані RLHF і тому суттєво розумніші, абсолютно точно є в OpenAI, і я не уявляю, щоб вони їх не використовували.
4. Існує певна ймовірність, що масштабувати здатності набагато далі не вийде. Може, сучасні ШІ просто стануть суттєво розумніші, але не перетворяться на абсолютно конкурентну перевагу для тих, в кого вони є, по відношенню до тих, в кого їх нема. Але це буде видно дуже скоро. Якщо через пару років ми не побачимо нових якісних проривів, то це буде сильний аргумент на користь цієї можливості. Я не дуже вірю в це, але це можливо. Але мій базовий сценарій, що вже цього року ми побачимо щось, що змусить вважати подальший радикальний прогрес у здатностях ШІ практично неминучим.
5. Рано чи пізно, але дуже швидко після того, як уряд США побачить можливості новостворених систем, він заблокує доступ до них для усіх, окрім тих, щодо кого він вважає, що доступ їм надати стратегічно вигідно.
6. Саме на 2026-2030 роки більшість прогнозів, про які я писав тут, передбачає появу щось типу AGI.
Головне, що якщо в цьому ланцюжку аргументації є фундаментальні помилки, то це буде видно дуже скоро.
Я цілеспрямовано збираються не робити якогось аналізу військового характеру, тому що я не фахівець, і тому що не обовʼязково щось повинно мати прямі моментальні наслідки для війни, навіть якщо це питання одразу постає в голові.
Але я думаю, що незалежно від військової сторони справи, можна сказати наступне:
В діапазоні 2026-2030 років, якщо до цього (а) не почнеться війна з Китаєм і (б) не оберуть Трампа (що є великим питанням), США як країна отримають практично нездоланну стратегічну перевагу у вигляді якогось ШІ (який можна називати чи не називати general або superintelligence, що для цього контексту неважливо) - таку, що, з одного боку, США буде перемогти неможливо, а з іншого, для США буде легко перемогти будь-кого. Коли це станеться, то становище для Росії і її союзників критично погіршиться.
США - не надійний союзник для України. Україна для США - другорядна проблема, і з часом буде ставати все більш другорядною. Але США не зможуть мати такий потужний важіль і не задіяти його, чи принаймні, нехай навіть не цілеспрямовано, не налякати ним.
Знову ж таки, якщо Трампа не оберуть і не буде війни з Китаєм, то я вважаю, що 2026 рік - це граничний термін, коли стане зрозуміло, чи відбудеться це неминуче, чи ні.
Чому я так вважаю? Повна відповідь на це питання дуже довга.
Якщо коротко, то:
1. Компанії США, особливо OpenAI, абсолютні лідери в ШІ, і вони відриваються ще далі. Пройшов рік з моменту виходу ChatGPT-4, і ніхто досі не зробив нічого краще. І станом на зараз, в OpenAI абсолютно точно є як мінімум ChatGPT-4.5, і скоріше за все, щось ще.
2. Абсолютно точно, що Пентагон співпрацює з ними. OpenAI нещодавно видалили пункт про незастосування свого ШІ в оборонних цілях зі своїх принципів.
3. Поточні здатності ШІ більші, ніж ми бачимо відкрито. По-перше, OpenAI має більше, ніж показує, а показує вона повільно, як ми це побачили з Sora. По-друге, Sora сама по собі - щось набагато більше і потужніше, ніж здається. По-третє, версії ШІ, які не були лоботимізовані RLHF і тому суттєво розумніші, абсолютно точно є в OpenAI, і я не уявляю, щоб вони їх не використовували.
4. Існує певна ймовірність, що масштабувати здатності набагато далі не вийде. Може, сучасні ШІ просто стануть суттєво розумніші, але не перетворяться на абсолютно конкурентну перевагу для тих, в кого вони є, по відношенню до тих, в кого їх нема. Але це буде видно дуже скоро. Якщо через пару років ми не побачимо нових якісних проривів, то це буде сильний аргумент на користь цієї можливості. Я не дуже вірю в це, але це можливо. Але мій базовий сценарій, що вже цього року ми побачимо щось, що змусить вважати подальший радикальний прогрес у здатностях ШІ практично неминучим.
5. Рано чи пізно, але дуже швидко після того, як уряд США побачить можливості новостворених систем, він заблокує доступ до них для усіх, окрім тих, щодо кого він вважає, що доступ їм надати стратегічно вигідно.
6. Саме на 2026-2030 роки більшість прогнозів, про які я писав тут, передбачає появу щось типу AGI.
Головне, що якщо в цьому ланцюжку аргументації є фундаментальні помилки, то це буде видно дуже скоро.