Forwarded from proVenture (проВенчур)
Изменение в инвестиционной политике YC.
В прошлую пятницу YC закрыл гештальт по поводу изменения их инвестиционной политики. С зимнего набора 2021 года они будут вкладывать $125 тыс. за 7% (а не $150 тыс.), а pro-rata right участия в новых раундах будут снижать до 4%
Про изменение политики я ранее писал в апреле: https://www.tg-me.com/proventure/910, и уже тогда мне это показалось странным. А сейчас закрепилось.
Что такое pro-rata right? Вообще по классике это называется pre-emptive right. Это право текущего акционера участвовать в допэмисии акций /новых раундах пропорционально своей текущей доле в компании. То есть автоматически ты можешь положить ровно столько от нового раунда, какая у тебя доля в компании сейчас – то есть, ты сохраняешь по итогу свою долю в капитале после нового раунда ту же, которая у тебя была. Просто? Вроде несложно. Логично? Да.
Что БЫЛО у YC: у них была хитрая формула расчета доли и они не учитывали ряд конвертируемых инструментов, которые для остальных учитывались. То есть, у них доля на будущие допэмиссии была даже больше их фактических 7%. Логично, что они решили это поправить, поскольку это а) нелогично и б) слишком накладно.
СТАЛО: с учетом искусственного сокращения pro-rata right до 4% они относительно меньше вкладывают. НО понятно, что они сокращают инвестиции, но почему бы просто не оставить plain vanilla pro-rata (который я описывал в прошлом примере)? Ведь чтобы вкладывать меньше, можно просто в меньшее количество компаний вкладывать и не наливать деньги на автомате.
Но поскольку (видимо), наливать всем на автомате - принцип, надо сделать искусственное право меньше фактической доли, чтобы все фаундеры напрягались и считали.
Как это делается? Все инвесторы раунда подписывают стандартный SAFE, и только YC подписывает еще Pro Rata Side Letter: https://www.ycombinator.com/documents/. И вот там теперь будут эти пресловутые 4%.
@proVenture
#howtovc #полезное
В прошлую пятницу YC закрыл гештальт по поводу изменения их инвестиционной политики. С зимнего набора 2021 года они будут вкладывать $125 тыс. за 7% (а не $150 тыс.), а pro-rata right участия в новых раундах будут снижать до 4%
Про изменение политики я ранее писал в апреле: https://www.tg-me.com/proventure/910, и уже тогда мне это показалось странным. А сейчас закрепилось.
Что такое pro-rata right? Вообще по классике это называется pre-emptive right. Это право текущего акционера участвовать в допэмисии акций /новых раундах пропорционально своей текущей доле в компании. То есть автоматически ты можешь положить ровно столько от нового раунда, какая у тебя доля в компании сейчас – то есть, ты сохраняешь по итогу свою долю в капитале после нового раунда ту же, которая у тебя была. Просто? Вроде несложно. Логично? Да.
Что БЫЛО у YC: у них была хитрая формула расчета доли и они не учитывали ряд конвертируемых инструментов, которые для остальных учитывались. То есть, у них доля на будущие допэмиссии была даже больше их фактических 7%. Логично, что они решили это поправить, поскольку это а) нелогично и б) слишком накладно.
СТАЛО: с учетом искусственного сокращения pro-rata right до 4% они относительно меньше вкладывают. НО понятно, что они сокращают инвестиции, но почему бы просто не оставить plain vanilla pro-rata (который я описывал в прошлом примере)? Ведь чтобы вкладывать меньше, можно просто в меньшее количество компаний вкладывать и не наливать деньги на автомате.
Но поскольку (видимо), наливать всем на автомате - принцип, надо сделать искусственное право меньше фактической доли, чтобы все фаундеры напрягались и считали.
Как это делается? Все инвесторы раунда подписывают стандартный SAFE, и только YC подписывает еще Pro Rata Side Letter: https://www.ycombinator.com/documents/. И вот там теперь будут эти пресловутые 4%.
@proVenture
#howtovc #полезное
Forwarded from Khantil
CCPA-vs-GDPR-scope-Diagram_print-out-version.pdf
863 KB
VC VS COVID-19: HOW INVESTORS REACT TO ONGOING FINANCIAL CRISIS
Enjoy!
https://unicorn-nest.com/analytics-vc-vs-covid-19-how-investors-react-to-ongoing-financial-crisis/
Enjoy!
https://unicorn-nest.com/analytics-vc-vs-covid-19-how-investors-react-to-ongoing-financial-crisis/
Forwarded from proVenture (проВенчур)
Топ-20 быстрорастущих опенсорсных стартапов.
Костя Виноградов (Runa Capital) составил интересный рейтинг опенсорсных стартапов, основанный на звёздочках на GitHub.
Почитайте, гиково, но интересно.
На что я обратил внимание – из топ-20 проектов 12 проектов из Европы и только оставшиеся из США, Канады и Индии. Один стартап из Украины, один из Польшы. Европа пока опережает, в общем.
А еще интересно, что некоторые проекты bootstrapped – не привлекали финансирование. Сколько их, я уже не считал, но это тоже наблюдение определенное.
@proVenture
https://medium.com/runacapital/open-source-growth-benchmarks-and-the-20-fastest-growing-oss-startups-d3556a669fe6
#trends
Костя Виноградов (Runa Capital) составил интересный рейтинг опенсорсных стартапов, основанный на звёздочках на GitHub.
Почитайте, гиково, но интересно.
На что я обратил внимание – из топ-20 проектов 12 проектов из Европы и только оставшиеся из США, Канады и Индии. Один стартап из Украины, один из Польшы. Европа пока опережает, в общем.
А еще интересно, что некоторые проекты bootstrapped – не привлекали финансирование. Сколько их, я уже не считал, но это тоже наблюдение определенное.
@proVenture
https://medium.com/runacapital/open-source-growth-benchmarks-and-the-20-fastest-growing-oss-startups-d3556a669fe6
#trends
Medium
Open Source Growth Benchmarks and the 20 Fastest-Growing OSS Startups
Introduction of open-source growth benchmarks for repositories and detection the fastest-growing open-source startups using Github data
Forwarded from Малоизвестное интересное
Сильный ИИ – не хайп, а фейк.
Почему его невозможно создать.
С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.
На тему самой грандиозной техно-аферы, обещающей создание сильного ИИ, мною написано предостаточно: 1, 2 и т.д. Казалось бы, все сказано.
Однако, опубликованная в Nature новая работа проф. Рагнара Фьелланда «Почему ИИ общего назначения не будет создан» несомненно стоит прочтения по двум причинам.
1) Проф. Фьелланд – знаменитый норвежский физик и философ, - не просто прокричал еще раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом более полувека назад в работе «Алхимия и искусственный интеллект».
2) Современная трактовка Фьелланда еще более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.
• Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) – это тупик.
• И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.
Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.
А. Компьютерная мощь никогда не разовьется в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие - способность принимать правильные решения в конкретных ситуациях, и мудрость - способность видеть целое.
Б. Важная часть человеческих знаний является неявными (невербализуемыми - tacit) знаниями. Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, - ошибочны. В равной степени можно пытаться научить ребенка кататься на велосипеде, не имея его, и лишь используя инструкцию.
В. Вера в обретение бессмертия путем создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой пост 3). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.
Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определенной культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.
ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.
#СильныйИИ
Почему его невозможно создать.
С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.
На тему самой грандиозной техно-аферы, обещающей создание сильного ИИ, мною написано предостаточно: 1, 2 и т.д. Казалось бы, все сказано.
Однако, опубликованная в Nature новая работа проф. Рагнара Фьелланда «Почему ИИ общего назначения не будет создан» несомненно стоит прочтения по двум причинам.
1) Проф. Фьелланд – знаменитый норвежский физик и философ, - не просто прокричал еще раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом более полувека назад в работе «Алхимия и искусственный интеллект».
2) Современная трактовка Фьелланда еще более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.
• Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) – это тупик.
• И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.
Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.
А. Компьютерная мощь никогда не разовьется в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие - способность принимать правильные решения в конкретных ситуациях, и мудрость - способность видеть целое.
Б. Важная часть человеческих знаний является неявными (невербализуемыми - tacit) знаниями. Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, - ошибочны. В равной степени можно пытаться научить ребенка кататься на велосипеде, не имея его, и лишь используя инструкцию.
В. Вера в обретение бессмертия путем создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой пост 3). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.
Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определенной культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.
ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.
#СильныйИИ
You can follow Unicorn Nest
Linkedin - https://www.linkedin.com/company/40849308
Facebook - https://www.facebook.com/pg/Unicorn-Nest-119931749393338
Twitter - https://twitter.com/UnicornNest
Linkedin - https://www.linkedin.com/company/40849308
Facebook - https://www.facebook.com/pg/Unicorn-Nest-119931749393338
Twitter - https://twitter.com/UnicornNest
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Дорогие читатели, мы пытаемся составить The Ultimate Guide on Fundraising. Для этого мы собираем материалы по метрикам. Если у вас в коллекции линков лежит статья на тему метрик в рамках матрицы https://docs.google.com/spreadsheets/d/1DMCQpecgLPjbpIMMrVoOUPzSiiypX5rU-KMQW42ikl4/, которую мы пытаемся описать, не постесняйтесь оставить ее в комментарии к соответствующей ячейке. Чем уже статья, тем лучше, но и группы метри нам тоже подходят.
Ну и если у вас есть любые идеи насчет гайда - не стесняйтесь их писать на [email protected]
Ну и если у вас есть любые идеи насчет гайда - не стесняйтесь их писать на [email protected]
Google Docs
Metrics for share
Лист1
Metrics
Models,ARR / AR,MRR / MR,NPS,Churn (user),CAC,ARPU,ARPPU,Average cheque,LTV,MAU,DAU,WAU,PCU,COGS / 1sCOGS / fixCOGS,Margin,Burn Rate,GTV,Net revenue
SaaS
Subscription
Market place
Transaction
e-Commerce
Advertising
Hardware
Freemium…
Metrics
Models,ARR / AR,MRR / MR,NPS,Churn (user),CAC,ARPU,ARPPU,Average cheque,LTV,MAU,DAU,WAU,PCU,COGS / 1sCOGS / fixCOGS,Margin,Burn Rate,GTV,Net revenue
SaaS
Subscription
Market place
Transaction
e-Commerce
Advertising
Hardware
Freemium…