Telegram Web Link
Forwarded from AlexTCH
https://shark.fish/curiosity

If you have nothing to do for the next couple of hours. Or just bored at your work. 😁
Forwarded from AlexTCH
https://ai.googleblog.com/2022/07/ml-enhanced-code-completion-improves.html

Google combines Machine-Learned Transformer-based code completions with "traditional" semantic analysis-based completions and checks and measures some productivity improvements.

It's nice to be Google: you can have 10k+ devs in your treatment group and the rest of Google in control.
Forwarded from AlexTCH
https://www.youtube.com/watch?v=BzuEGdGHKjc

Julia developers be like
What if use LLVM as a JIT compiler but unironically? And also have macros to implement staged compilation right in Julia and then JIT what's left? We'll implement blazing fast autodiff and put everything in a GPU!

Python developers at Google be like
Wait we have our own compiler to, XLA! And we can write Python functions to specialize other Python functions, right? We too can implement blazing bast autodiff and even target TPUs!

Actually JAX's approach to compiling Python to IR with tracing right inside Python is pretty fascinating. They also gain and exploit Futamura projection-like functionality to make (almost) everything composable. Clever stuff.
Forwarded from A64m AL256m qn<cores> I0
Я начинаю выкатывать первую итерацию блогпоста по истории ФП, надеюсь что у кого-нибудь будут какие-то замечания по первой главе
токо осторожно, там до первой главки по истории идет метаисторический выблев на пять экранов
https://gist.github.com/klapaucius/f0adec8a567b7bf000c8bcf99686a9bd
Forwarded from AlexTCH
Вас в школе учитель(ница) математики заставляла расписывать промежуточные шаги при решении задачи? Исследователи из Google AI заставили это делать свои Language Models:
https://ai.googleblog.com/2022/05/language-models-perform-reasoning-via.html

Удивительное дело, но явное выписывание промежуточных шагов сильно помогает решать математические задачки. Видимо, учителя математики что-то нащупали за последние 200 лет своей совокупной деятельности.

Что несколько более удивительно, обучение модели выполнению детерминированных логических шагов, в частности, арифметических операций происходит прямо на естественном языке, натурально как в школе. Точнее, людям в школе-то как раз дают явные алгоритмы сложения-вычитания-умножения-деления ("в столбик"), а "ИИ" (уже/пока что) — нет.

Но исследователи и исследовательницы на этом не остановились, и подумали "а что если заменить шаги математических вычислений на манипуляции, производимые роботом?":
https://ai.googleblog.com/2022/08/towards-helpful-robots-grounding.html

Оказалось, что докинув в замес ещё пару ML/RL-трюков (image-based behavioral cloning, temporal-difference-based RL, RetinaGAN и прочее по мелочи) можно поднять процент успешных задуманных "хитрых планов" до 84, и выполненных до 74. Ещё недостаточно хорошо, чтобы "спасать жизни", но сильно лучше, чем 50/50.

По такой радости даже запилили "продающий сайт":
https://sites.research.google/palm-saycan
Forwarded from AlexTCH
https://lecopivo.github.io/SciLean/doc/differentiation_in_scilean.html

A cool tutorial (work in progress) on calculating derivatives and differentials (symbolically and mostly automatically) in Lean 4 with the SciLean library (and tactics).
https://arxiv.org/abs/2208.09964 Shor, [2022] The Early Days of Quantum Computation"
Forwarded from AlexTCH
https://www.arxiv-vanity.com/
> arXiv Vanity renders academic papers from arXiv as responsive web pages so you don’t have to squint at a PDF.

WOW! 😳
Forwarded from AlexTCH
https://buttondown.email/hillelwayne/archive/why-you-should-read-data-and-reality/

Once more: we are not modeling reality, but the way information about reality is processed, by people. — Bill Kent

Эта фраза точечно объясняет, почему ООП по факту провалилось, как и примерно все остальные "методологии программирования" или проектирования.

Реальность многообразнее любой модели — это первое, что мы забываем, и оно же возвращается бумерангом чтобы хлопнуть нас по затылку в самый ответственный момент.

Ссылка на книгу внутри поста.
#free #book #modeling
Forwarded from Known unknown unknowns
All physics in nine lines: https://www.motionmountain.net/9lines.html (там ссылки на Motion Mountain, её тоже неплохо почитать)
Forwarded from AlexTCH
120. Adapting old programs to fit new machines usually means adapting new machines to behave like old ones.

Alan J. Perlis (http://pu.inf.uni-tuebingen.de/users/klaeren/epigrams.html)

Эта фраза точечно объясняет развитие компьютеров за последние 50 лет.
2025/07/08 04:25:59
Back to Top
HTML Embed Code: