Telegram Web Link
الان یک دفعه یادم افتاد

خواستم تشکر کنم از همه‌ی دوستانی که پست‌های کانال رو به اشتراک می‌گذارند.

نمودار رشد کانال هست، با وجود اینکه چندماهی فعالیت نداشت.

مرسی از همگی ♥️🌹
70
Paper Link

مقاله مربوط به مدل ۷ میلیاردی ماکروسافت برای
Embedding

این مدل در حال حاضر rank 1 هاگینگ فیس هست (به محض انتشار جایگاه اول رو به خودش اختصاص داده)

خیلی مهم هست این قضیه.
👍265
Forwarded from Python Hints
#خارج_از_بحث #لینوکس

خبر پشتیبانی از پکیج‌های x86_64-v3 خلاصه و به زبان ساده بگم؛ این نسخه از پکیج‌ها برای cpu های سال 2015 به بعد بهینه شده خوبیش استفاده بهینه از منابع و حتی سرعت بیشتر هست.

اگر کاربر یا طرفدار ubuntu هستید می‌دونید که گفته به سراغ این موضوع میره؛ fedora هم از این قضیه مستثنی نیست و گفته که این موضوع رو بررسی می‌کنه؛ اما این وسط RedHat حرکت عجیبتری زده
RedHat Enterprise Linux v10 

که سال بعدی میاد گفته که دیگه از نسخه‌های قدیمی پشتیبانی نخواهد کرد
x86_64-v3

تنها گزینه خواهد بود. این یعنی cpu های قبل از 2015 دیگه توانایی نصب RHEL10, Rocky10 , ... رو نخواهد داشت و این موضوع رو هم اعلام کرده که حتی اگه اینکار باعث بهبود سرعت و پرفورمنس هم نشه بازم اینکار رو می‌کنه چون دیگه لازم نیست توی کدها شرایط AVX - , ... رو بررسی کنند ( داستان کد کمتر باگ کمتری هست که ۲ هفته پیش صحبت کردم راجبش )

در همین راستا چندسال قبل راجب
Intel Clear Linux 

صحبت کرده بودم و گفتم که این OS روی اکثر سرورهای پردازشی شرکتی که اون زمان کار میکردم وجود داره و دلیلش هم بهینه بودنش توی استفاده از منابع هست.

بازم میگم : کاربران Fedora, Ubuntu و مشتقاتش نگرانی نداشته باشند چون
x86-64-v3
در کنار نسخه‌های قدیمی اضافه خواهد شد؛ که اتفاقا خبر خوبی هست اگر cpu شما پشتیبانی کنه OS بهینه تری خواهید داشتید.

شخصا بی‌صبرانه منتظر آپگرید سیستمم به
Rocky10
هستم.
👍11
White Rabbit Neo

این مدل برای کمک در زمینه cybersecurity آموزش دیده؛ هم می‌تونه برای امنیت بیشتر به شما راهنمایی بده و هم در زمینه نفوذ.

چند مورد اسکریپت‌هایی که نوشته شده باهاش رو توی فروم‌ها دیدم که ۹۰٪ کار رو به درستی انجام می‌داد.

پیشنهاد خوبی هست برای دوستانی که در زمینه‌های امنیت سرور و ... درحال یادگیری هستند.

پ.ن : این مدل سانسور و ... هم تو کارش نیست و نسخه 33 میلیاردیش در دست تست هست.
👍12
Forwarded from Python Hints
#خارج_از_بحث
#جهت_انتشار
#جهت_آگاه‌سازی

من راجب لو رفتن دیتاهای اسنپ (حتی همون بخش کوچیک)، ایرانسل، همراه‌اول توی این چندسال هیچ چیزی نگفتم توی این کانال چون واقعاً ربطی نداشت به ما.

اما یک مورد رو بسیار زیاد دیدم توی چند وقت اخیر، یک گروه از افراد (بیاید بگیم گروه هکری، هرچند خیلی از هکرها شرف دارند)
شروع کردند به دخترها، توی تلگرام پیام دادن که:

خلاصه و مضمون این پیام اینطوری هست که به دلیل مشکلات جسمی و #جنسی نیاز به رابطه دارند و ... ولی امکانش رو ندارند.
بنابراین اگر شما بدون چهره و ... بهشون تصویر یا ویدئو لخت بدید حاضرند به شما پرداخت داشته باشند، به عمد هم مبالغ خوبی رو پیشنهاد می‌دهند.
و تأکید می‌کنند پلتفرم ناشناس باشه، چهره نباشه و ...

حالا بخش اخاذی چطوری میاد ؟
دیتابیس #ایرانسل، #اسنپ #همراه_اول هر ۳ مورد علاوه بر شماره اطلاعات دقیق صاحب خط، شناسنامه‌، آدرس و ... رو هم داره
توی موردی که شخصاً با فرد داشتم چت می‌کردم، حتی اعلام کرد برای ویدیو ۵ دقیقه‌ای حاضر هست ۱ میلیون تومان پرداخت مستقیم داشته باشه
بعد از ۲ تا عکس هم حاضره نصف مبلغ رو درجا پرداخت کنه، (همین شیوه پرداخت خودش،ناشناس بودن رو می‌بره زیر سوال)

متأسفانه جامعه هدف این افراد کسانی هستند که سواد کامپیوتری ندارند و یا طبق اطلاعات ثبت شده سن افراد بین ۱۸ تا ۲۵ هست.

من نمی‌دونم چطوری اما اگر شما هم کسی رو می‌شناسید که دختر داشته باشه، یا دوست و آشنایی دارید حتماً این پیام رو بفرستید براشون یا بهشون توضیح بدید.

می‌دونم زندگی سخت شده و برای پول هرکاری شاید بکنند بعضی افراد، با تصور اینکه هیچ اطلاعاتی ازشون وجود نداره (توی گروهی بودم که حداقل ۱٪ می‌خواستند اینکارو رو بکنند) اما شما و من می‌دونیم به محض اینکه اولین ویدئو رو دریافت کنند اخاذی شروع خواهد شد.
بر اساس همون آدرس‌ها و اطلاعاتی که توی دیتابیس‌های مختلف هک شده وجود داره

می‌دونم موضوع کانال این چیزا نیست، اما وظیفه خودم دونستم که این موضوع رو حتماً اطلاع بدم و شخصاً از شما عزیزان خواهش می‌کنم که این مطلب رو به اشتراک بذارید (نیاز به ذکر منبع نیست)

کاش با این شرکت‌هایی که امنیت کاربر براشون مهم نیست و اطلاعات دقیق از کاربر میگیرند برخورد محکم و قاطعی صورت می‌گرفت.
👍10819
galaxy ai
رو ببینید.
👍97
بازهم
DeepMind : AlphaGeometry

مسائل هندسه رو حل می‌کنه، همونطور که می‌بینید در حد المپیاد.

مقاله توی نیچر چاپ شده که لینکش توی بلاگ هست
گیت‌هاب هم توی بلاگ گذاشتند.
👍206
#خارج_از_بحث

Disney HoloTile

اگر فروش عمومی داشته باشه، نصف اتاقم رو با این تکنولوژی پر می‌کنم.

۹۰٪ مشکلاتم حل میشه، چقدر فوق‌العاده‌اس
👍16
چه جوانانی!
اسماعیل، می‌بینی؟
چه جوانانی!

بسیاری‌شان هنوز صورت عشق را بر سینه نفشرده‌ اند
و
موهای صورت پسرها هنوز درنیامده
و دخترها را می‌بینی؟
چه پاهای لطیفی دارند!

#جنگ است، اینجا هم #جنگ است اسماعیل!


برای همه‌ی آنها که بی‌گناه، محکوم به #اعدام شدند.
141👍2
توییت آخر ایلان ماسک + کاسه تخمه + ریپلای‌ها

اونایی که ندیدند متوجه نمی‌شن
(دیگه آخری نیست)
🤣23
La la La la (No More Lullabies)
Shahyar Ghanbari
La la La la
Shahyar Ghanbari

HiRes, #Flac

نخواب وقتی که هم بغضت به زنجیره
نخواب وقتی که خون از شب سرازیره
40👍3
دستاوردهای یادگیری عمیق(InTec)
Shahyar Ghanbari – La la La la (No More Lullabies)
لالا لالا ديگه بسه گل لاله
بهار سرخ امسال مثل هرساله
هنوزم تير و ترکش قلبو ميشناسه
هنوز شب زير سرب و چکمه مي ناله

نخواب آروم گل بي خار و بي کينه
نمي بيني نشسته گوله تو سينه ؟
آخه بارون که نيست ... رگبار باروته!
سزاي عاشقاي خوب ما اينه!

نترس از گوله ي دشمن گل لادن
که پوست شیر پوستِ سرزمين من!
اجاق گرم سرماي شب سنگر
دليل تا سپيده رفتن و رفتن

نخواب آروم گل بادوم ناباور
گل دلنازک خسته، گل پر پر
نگو باد ولايت پر پرت کرده
دلاور قد کشيدن رو بگير از سر

دوباره قد بکش تا اوج فواره
نگو اين ابر بي بارون نمي ذاره
مث یار دلاور نشکن از دشمن
ببين سر مي شکنه تا وقتي سر داره

نذاشتن هم صدايي رو بلد باشيم
نذاشتن حتي با همديگه بد باشيم
کتاباي سفيدو دوره مي کرديم
که فکر شبکلاهي از نمد باشيم

نگو رفت تا هزار آفتاب هزار مهتاب!
نگو کو تا دوباره بپريم از خواب!
بخون با من نترس از گوله ي دشمن
بيا بيرون بيا بيرون از اين مرداب

نگو تقواي ما تسليم و ايثاره
نگو تقدير ما صد تا گره داره
به پيغام کلاغاي سياه شک کن
که شب جز تيرگي چيزي نمياره

نخواب وقتي که هم بغضت به زنجيره
نخواب وقتي که خون از شب سرازيره
بخون وقتي که خوندن معصيت داره
بخون با من بيا تا من نگو ديره!

سکوت شيشه هاي شب غمي داره
ولي خشم تو مشت محکمي داره!!

عزيزِ جمعه هاي عشق و آزادي
کلاغ پر بازي با تو عالمي داره ...
68👍7
اگر مدل‌هایی مثل :
Llama2, Mixtral, Gemma

کار شما و شرکت شمارو راه میندازه حتما یک سری به
https://wow.groq.com/

بزنید و از LPU طراحی شده توسط این شرکت لذت ببرید؛
LPU: Language Processing Unit

واحد پردازشی این شرکت هست که برای inference طراحی شده و از TPU, GPU برای این کاربرد خاص بسیار بسیار سریعتر و بهینه‌تر هست بعنوان مثال برای مدل
Llama2 70B parameter
در زمان inference چیزی معادل 325T/s سرعتش هست؛ این عدد برای Nvidia A100 طبق گذارشات موجود بصورت میانگین 5T/s هست؛
T/s: token per seconds

نخوندم جایی اشاره بشه؛ ولی طراحی و ایده نسخه اول از TPU های گوگل هم توسط مدیر همین شرکت بود.
👍242
معاونت علمی ریاست جمهوری یک همایش گذاشته برای توسعه LLM بومی؛
۱۲ تا سخنران معرفی کرده، غیر از چند مورد اندک متخصص باقی یا کاسب هستند یا بی‌سواد

آنقدری که بنظرم گذاشتن پوستر توی کانال، کانال رو کاملاً بی‌ارزش می‌کنه

از همه اینا بگذریم، بر اساس تجربه می‌گم ( اونایی که از قبل بودن برای ترگمان و ... هم یادشون هست گفتم ) این پروژه به هیچ‌جا نخواهد رسید.

جز کمی دزدی و بریز و بپاش پول، شاید شاید از بچه‌ها و شرکت‌های تخصصی اگر سنگ جلو پاهاشون نندازن مدل‌های خوب و فوق‌العاده برای فارسی بدست بیاد ولی ازین پروژه دولتی هیچ چیزی در نخواهد اومد.

پیشنهاد می‌کنم وقت ارزشمند خودتون تلف نکنید برای این همایش.


اگر خواستید جایگزین مفیدی داشته باشید، ویدئو دو هفته قبل
Andrej Karpathy

راجب GPT Tokenizer رو ببینید و لذت ببرید.

YouTube link
👍479
۹۰٪
استفاده من از chatGpt (البته وقتی که استفاده می‌کنم) بابت نوشتن document, docstring , ... برای کدهام هست.

چندروز پیش توی یک مسیری بودم، و داشتم code cleaning انجام می‌دادم که از وقتم بهینه استفاده کرده باشم به خودم گفتم اگر LLM بود الان docstring و ... هم میزدم چندروز جلو بودم، خلاصه که وقتی رسیدم خونه همینکار رو کردم.

نتیجه‌ نهاییش این شد که : ۳ تا مدل دارم روی سیستم
1.3b parameters, 6.7b parameters, 33b parameters

مدل اول و سبک‌ترین مدل روی لپ‌تاپ هست، فقط و فقط برای docstring نویسی ازش استفاده میکنم و فوق‌العاده هم جواب میده.

مدل دوم هم روی لپ‌تاپ هست هم روی سیستم، برای توضیح کد، پیشنهادات سریع و کدهای تکراری ازش استفاده میکنم

مدل آخر 33b، فقط روی سیستم دارم و برای کد زدن استفاده می‌کنم ازش
بهش می‌گم چه چیزی رو با چه شرایطی می‌خوام و برام پیاده سازی می‌کنه.

فقط کافیه مدل رو با یکی از ابزارهای موجود روی سیستم لوکال خودتون deploy کنید.
بعد داخل vscode از continue بعنوان extension استفاده کنید و اون رو روی مدل لوکال خودتون کانفیگ کنید، سرعت خروجی هم بسیار بسیار بیشتر از chatGpt, Gemini, ... هست.


هدف بعدی :
داکیومنت کتابخانه‌های معروف روی گیت‌هاب بصورت markdown نوشته می‌شه
پس می‌تونم این داکیومنت هارو بعنوان knowledge به مدل مورد نظرم بدم.
تا همیشه آپدیت نگهش دارم.

اگر کسی قبلاً اینکار رو کرده، خوشحال میشم راه حلش رو توی گروه بگه

https://www.tg-me.com/tensorflowPython
👍366
2025/07/11 23:17:40
Back to Top
HTML Embed Code: