Forwarded from AlexTCH
https://shark.fish/curiosity
If you have nothing to do for the next couple of hours. Or just bored at your work. 😁
If you have nothing to do for the next couple of hours. Or just bored at your work. 😁
shark.fish
curiositY
How far does your curiosity take you?
Forwarded from AlexTCH
https://ai.googleblog.com/2022/07/ml-enhanced-code-completion-improves.html
Google combines Machine-Learned Transformer-based code completions with "traditional" semantic analysis-based completions and checks and measures some productivity improvements.
It's nice to be Google: you can have 10k+ devs in your treatment group and the rest of Google in control.
Google combines Machine-Learned Transformer-based code completions with "traditional" semantic analysis-based completions and checks and measures some productivity improvements.
It's nice to be Google: you can have 10k+ devs in your treatment group and the rest of Google in control.
research.google
ML-Enhanced Code Completion Improves Developer Productivity
Posted by Maxim Tabachnyk, Staff Software Engineer and Stoyan Nikolov, Senior Engineering Manager, Google Research Update — 2022/09/06: This post...
Forwarded from AlexTCH
https://www.youtube.com/watch?v=BzuEGdGHKjc
Julia developers be like
What if use LLVM as a JIT compiler but unironically? And also have macros to implement staged compilation right in Julia and then JIT what's left? We'll implement blazing fast autodiff and put everything in a GPU!
Python developers at Google be like
Wait we have our own compiler to, XLA! And we can write Python functions to specialize other Python functions, right? We too can implement blazing bast autodiff and even target TPUs!
Actually JAX's approach to compiling Python to IR with tracing right inside Python is pretty fascinating. They also gain and exploit Futamura projection-like functionality to make (almost) everything composable. Clever stuff.
Julia developers be like
What if use LLVM as a JIT compiler but unironically? And also have macros to implement staged compilation right in Julia and then JIT what's left? We'll implement blazing fast autodiff and put everything in a GPU!
Python developers at Google be like
Wait we have our own compiler to, XLA! And we can write Python functions to specialize other Python functions, right? We too can implement blazing bast autodiff and even target TPUs!
Actually JAX's approach to compiling Python to IR with tracing right inside Python is pretty fascinating. They also gain and exploit Futamura projection-like functionality to make (almost) everything composable. Clever stuff.
YouTube
JAX: accelerated machine learning research via composable function transformations in Python
JAX is a system for high-performance machine learning research and numerical computing. It offers the familiarity of Python+NumPy together with hardware acceleration, and it enables the definition and composition of user-wielded function transformations useful…
Forwarded from AlexTCH
https://medium.com/@kentbeck_7670/test-commit-revert-870bbd756864
Kent Beck promotes another crazy radical workflow. But it might indeed be fun to try for a hobby project. 😊
Kent Beck promotes another crazy radical workflow. But it might indeed be fun to try for a hobby project. 😊
Medium
test && commit || revert
As part of Limbo on the Cheap, we invented a new programming workflow. I introduced “test && commit”, where every time the tests run…
Forwarded from A64m AL256m qn<cores> I0
Я начинаю выкатывать первую итерацию блогпоста по истории ФП, надеюсь что у кого-нибудь будут какие-то замечания по первой главе
токо осторожно, там до первой главки по истории идет метаисторический выблев на пять экранов
https://gist.github.com/klapaucius/f0adec8a567b7bf000c8bcf99686a9bd
токо осторожно, там до первой главки по истории идет метаисторический выблев на пять экранов
https://gist.github.com/klapaucius/f0adec8a567b7bf000c8bcf99686a9bd
Gist
История применения и оценки функционального программирования
История применения и оценки функционального программирования - prehist.md
Forwarded from AlexTCH
Вас в школе учитель(ница) математики заставляла расписывать промежуточные шаги при решении задачи? Исследователи из Google AI заставили это делать свои Language Models:
https://ai.googleblog.com/2022/05/language-models-perform-reasoning-via.html
Удивительное дело, но явное выписывание промежуточных шагов сильно помогает решать математические задачки. Видимо, учителя математики что-то нащупали за последние 200 лет своей совокупной деятельности.
Что несколько более удивительно, обучение модели выполнению детерминированных логических шагов, в частности, арифметических операций происходит прямо на естественном языке, натурально как в школе. Точнее, людям в школе-то как раз дают явные алгоритмы сложения-вычитания-умножения-деления ("в столбик"), а "ИИ" (уже/пока что) — нет.
Но исследователи и исследовательницы на этом не остановились, и подумали "а что если заменить шаги математических вычислений на манипуляции, производимые роботом?":
https://ai.googleblog.com/2022/08/towards-helpful-robots-grounding.html
Оказалось, что докинув в замес ещё пару ML/RL-трюков (image-based behavioral cloning, temporal-difference-based RL, RetinaGAN и прочее по мелочи) можно поднять процент успешных задуманных "хитрых планов" до 84, и выполненных до 74. Ещё недостаточно хорошо, чтобы "спасать жизни", но сильно лучше, чем 50/50.
По такой радости даже запилили "продающий сайт":
https://sites.research.google/palm-saycan
https://ai.googleblog.com/2022/05/language-models-perform-reasoning-via.html
Удивительное дело, но явное выписывание промежуточных шагов сильно помогает решать математические задачки. Видимо, учителя математики что-то нащупали за последние 200 лет своей совокупной деятельности.
Что несколько более удивительно, обучение модели выполнению детерминированных логических шагов, в частности, арифметических операций происходит прямо на естественном языке, натурально как в школе. Точнее, людям в школе-то как раз дают явные алгоритмы сложения-вычитания-умножения-деления ("в столбик"), а "ИИ" (уже/пока что) — нет.
Но исследователи и исследовательницы на этом не остановились, и подумали "а что если заменить шаги математических вычислений на манипуляции, производимые роботом?":
https://ai.googleblog.com/2022/08/towards-helpful-robots-grounding.html
Оказалось, что докинув в замес ещё пару ML/RL-трюков (image-based behavioral cloning, temporal-difference-based RL, RetinaGAN и прочее по мелочи) можно поднять процент успешных задуманных "хитрых планов" до 84, и выполненных до 74. Ещё недостаточно хорошо, чтобы "спасать жизни", но сильно лучше, чем 50/50.
По такой радости даже запилили "продающий сайт":
https://sites.research.google/palm-saycan
research.google
Language Models Perform Reasoning via Chain of Thought
Posted by Jason Wei and Denny Zhou, Research Scientists, Google Research, Brain team In recent years, scaling up the size of language models has be...
Forwarded from A64m AL256m qn<cores> I0
следующая глава
https://gist.github.com/klapaucius/f0adec8a567b7bf000c8bcf99686a9bd#%D0%BF%D1%81%D0%B5%D0%B2%D0%B4%D0%BEcpl
https://gist.github.com/klapaucius/f0adec8a567b7bf000c8bcf99686a9bd#%D0%BF%D1%81%D0%B5%D0%B2%D0%B4%D0%BEcpl
Gist
История применения и оценки функционального программирования
История применения и оценки функционального программирования - prehist.md
Forwarded from AlexTCH
https://lecopivo.github.io/SciLean/doc/differentiation_in_scilean.html
A cool tutorial (work in progress) on calculating derivatives and differentials (symbolically and mostly automatically) in Lean 4 with the SciLean library (and tactics).
A cool tutorial (work in progress) on calculating derivatives and differentials (symbolically and mostly automatically) in Lean 4 with the SciLean library (and tactics).
https://arxiv.org/abs/2208.09964 Shor, [2022] The Early Days of Quantum Computation"
Forwarded from AlexTCH
https://www.arxiv-vanity.com/
> arXiv Vanity renders academic papers from arXiv as responsive web pages so you don’t have to squint at a PDF.
WOW! 😳
> arXiv Vanity renders academic papers from arXiv as responsive web pages so you don’t have to squint at a PDF.
WOW! 😳
Forwarded from AlexTCH
https://buttondown.email/hillelwayne/archive/why-you-should-read-data-and-reality/
Эта фраза точечно объясняет, почему ООП по факту провалилось, как и примерно все остальные "методологии программирования" или проектирования.
Реальность многообразнее любой модели — это первое, что мы забываем, и оно же возвращается бумерангом чтобы хлопнуть нас по затылку в самый ответственный момент.
Ссылка на книгу внутри поста.
#free #book #modeling
Once more: we are not modeling reality, but the way information about reality is processed, by people. — Bill Kent
Эта фраза точечно объясняет, почему ООП по факту провалилось, как и примерно все остальные "методологии программирования" или проектирования.
Реальность многообразнее любой модели — это первое, что мы забываем, и оно же возвращается бумерангом чтобы хлопнуть нас по затылку в самый ответственный момент.
Ссылка на книгу внутри поста.
#free #book #modeling
Buttondown
Why You Should Read "Data and Reality"
Once more: we are not modeling reality, but the way information about reality is processed, by people. — Bill Kent I've got this working theory that you can...
Forwarded from Known unknown unknowns
All physics in nine lines: https://www.motionmountain.net/9lines.html (там ссылки на Motion Mountain, её тоже неплохо почитать)
www.motionmountain.net
All of physics and nature in 9 lines
A compact summary of all natural sciences
Forwarded from AlexTCH
120. Adapting old programs to fit new machines usually means adapting new machines to behave like old ones.
Alan J. Perlis (http://pu.inf.uni-tuebingen.de/users/klaeren/epigrams.html)
Эта фраза точечно объясняет развитие компьютеров за последние 50 лет.