باشگاه فناوران اطلاعات مکانی
ماهی بزرگ برکه ی کوچک!؟ برای کسانی که بتازگی وارد دانشگاه یا محیطهای بزرگتر از قبل شدند تا با احساسات جدیدشون آشنا بشن این کلیپ از ویدئو نقد و بررسی «کتاب حسادت به بالادستی و تمسخر پایین دستی نوشته سوزان فیسک» گرفته شده. دکتر آذرخش مکری @modern_cogitation
این پدیده وصف حال خیلی از ماهاست...خیلی هارو دیدم دچار این سندروم میشن
در آپدیت جدید تلگرام میتونید پست پیشنهاد بدید.
امکان خوبیه برای به اشتراک گذاری محتوا و مطالبی که کمک میکنه به افزایش اطلاعات همدیگه
امکان خوبیه برای به اشتراک گذاری محتوا و مطالبی که کمک میکنه به افزایش اطلاعات همدیگه
باشگاه فناوران اطلاعات مکانی
تلگرام به To-Do List مجهز میشود در جدیدترین نسخه بتا تلگرام برای iOS، این پیامرسان محبوب به To-Do List مجهز شده است. این ویژگی امکان ساخت لیست وظایف را در چتهای خصوصی و گروهها فراهم میکند و کاربران در گروهها به آن دسترسی دارند. با این قابلیت میتوانید…
ساخت چک لیست برای اکانت پریمیوم
باشگاه فناوران اطلاعات مکانی
تصورش هم محال بود که در موقعیت اتش بس با اسراییل قرار بگیریم. ضعف فناوری...فرسودگی جنگنده ها و هواپیماها.. در بخش دفاعی و حفاظتی چقدر ساده انگاری داشتند مسیولین و استراتژیست های ایران.
فرستاده ویژه سازمان ملل در امور حقوق بشر: افشای نقش آمازون و گوگل و مایکروسافت در همدستی با اسرائیل
🔹آمازون، آلفابت و مایکروسافت ظرفیت پردازش داده، تواناییها و قابلیتهای هوش مصنوعی، فضای ابری خود را در اختیار رژیم صهیونیستی قرار داده است.
🆔 @GITAnet|باشگاه فناوران اطلاعات مکانی
🔹آمازون، آلفابت و مایکروسافت ظرفیت پردازش داده، تواناییها و قابلیتهای هوش مصنوعی، فضای ابری خود را در اختیار رژیم صهیونیستی قرار داده است.
🆔 @GITAnet|باشگاه فناوران اطلاعات مکانی
باشگاه فناوران اطلاعات مکانی
فرستاده ویژه سازمان ملل در امور حقوق بشر: افشای نقش آمازون و گوگل و مایکروسافت در همدستی با اسرائیل 🔹آمازون، آلفابت و مایکروسافت ظرفیت پردازش داده، تواناییها و قابلیتهای هوش مصنوعی، فضای ابری خود را در اختیار رژیم صهیونیستی قرار داده است. 🆔 @GITAnet|باشگاه…
⏺محققان در غرب چطور آدم میکشند؟
⏺شاید خیلی از ما ذهنیتی مثبت نسبت به شرکتهایی مثل گوگل و آمازون داشته باشیم—نمادهای نوآوری، آزادی، و آینده. اما پروژه نیمبوس نشان داد که این آینده، اگر بیاخلاق باشد، میتواند به ماشین مرگ تبدیل شود.
⏺در سال ۲۰۲۱، گوگل و آمازون قراردادی ۱.۲ میلیارد دلاری با دولت اسرائیل امضا کردند تا زیرساختهای ابری، هوش مصنوعی و یادگیری ماشینی را در اختیار ارتش این رژیم قرار دهند. این پروژه، قرار است فناوری را به خدمت جنایتکاران درآورد تا روح انسان را در مرزهای اشغالشده دفن کند و هر آزادهای در سراسر جهان را هدف ترور قرار دهد.
⏺در دل این همکاری، ابزارهایی مثل «گرگ آبی» و «گله گرگ» توسعه یافتهاند—اپلیکیشنهایی که سربازان با آنها چهرهٔ انسانها را اسکن میکنند و تصمیم میگیرند که چه کسی باید ترور و کشته شود.
🪖اما نیمبوس فقط یک پروژه نظامی نیست، بلکه یک آزمون اخلاقی است که در آن، شرکتهای فناوری تصمیم گرفتهاند برده قاتلان شوند تا فناوریشان به آپارتاید خدمت کند.
کارمندان گوگل بارها اعتراض کردند، استعفا دادند، اخراج شدند، و فریاد زدند: «من از ساخت فناوریای که نسلکشی را تقویت میکند، امتناع میکنم».
🥇حتی مهندس ایرانی، علیرضا ذاکری، با مدال طلای المپیاد کامپیوتر، پس از ماهها اعتراض، از گوگل استعفا داد و نوشت: «چه فایدهای دارد که انسان تمام دنیا را به دست آورد، اما روح خود را از دست بدهد؟»
❗️پروژه نیمبوس به ما یادآوری میکند که فناوری بیاخلاق، خطرناکتر از هر سلاحیست.
حال باید در مورد محققان مشغول در شرکتهای فناوری غربی نگاهی دیگر داشته باشیم—و نه تنها آنها را تشویق نکنیم، بلکه بازخواست کنیم که چرا،
در برابر پروژههایی چون نیمبوس، سکوت کردهاند؟
ما باید از آنان بپرسیم:
- چرا بهجای ساختن پلی میان انسان و دانش، دیوار کشیدهاند بین انسان و آزادی؟
- چرا هنگامی که فناوری به خون آلوده شد، دستهای خود را شستند، نه صدای خود را بلند کردند؟
- چرا «هوش مصنوعی» را به ابزاری برای جنایت بدل کردند؟
وقتی کدها و الگوریتمها، بهجای عدالت، مرگ را توزیع میکنند دیگر نمیتوان گفت «ما فقط یک مهندس بودیم».
⏺شاید خیلی از ما ذهنیتی مثبت نسبت به شرکتهایی مثل گوگل و آمازون داشته باشیم—نمادهای نوآوری، آزادی، و آینده. اما پروژه نیمبوس نشان داد که این آینده، اگر بیاخلاق باشد، میتواند به ماشین مرگ تبدیل شود.
⏺در سال ۲۰۲۱، گوگل و آمازون قراردادی ۱.۲ میلیارد دلاری با دولت اسرائیل امضا کردند تا زیرساختهای ابری، هوش مصنوعی و یادگیری ماشینی را در اختیار ارتش این رژیم قرار دهند. این پروژه، قرار است فناوری را به خدمت جنایتکاران درآورد تا روح انسان را در مرزهای اشغالشده دفن کند و هر آزادهای در سراسر جهان را هدف ترور قرار دهد.
⏺در دل این همکاری، ابزارهایی مثل «گرگ آبی» و «گله گرگ» توسعه یافتهاند—اپلیکیشنهایی که سربازان با آنها چهرهٔ انسانها را اسکن میکنند و تصمیم میگیرند که چه کسی باید ترور و کشته شود.
🪖اما نیمبوس فقط یک پروژه نظامی نیست، بلکه یک آزمون اخلاقی است که در آن، شرکتهای فناوری تصمیم گرفتهاند برده قاتلان شوند تا فناوریشان به آپارتاید خدمت کند.
کارمندان گوگل بارها اعتراض کردند، استعفا دادند، اخراج شدند، و فریاد زدند: «من از ساخت فناوریای که نسلکشی را تقویت میکند، امتناع میکنم».
🥇حتی مهندس ایرانی، علیرضا ذاکری، با مدال طلای المپیاد کامپیوتر، پس از ماهها اعتراض، از گوگل استعفا داد و نوشت: «چه فایدهای دارد که انسان تمام دنیا را به دست آورد، اما روح خود را از دست بدهد؟»
❗️پروژه نیمبوس به ما یادآوری میکند که فناوری بیاخلاق، خطرناکتر از هر سلاحیست.
حال باید در مورد محققان مشغول در شرکتهای فناوری غربی نگاهی دیگر داشته باشیم—و نه تنها آنها را تشویق نکنیم، بلکه بازخواست کنیم که چرا،
در برابر پروژههایی چون نیمبوس، سکوت کردهاند؟
ما باید از آنان بپرسیم:
- چرا بهجای ساختن پلی میان انسان و دانش، دیوار کشیدهاند بین انسان و آزادی؟
- چرا هنگامی که فناوری به خون آلوده شد، دستهای خود را شستند، نه صدای خود را بلند کردند؟
- چرا «هوش مصنوعی» را به ابزاری برای جنایت بدل کردند؟
وقتی کدها و الگوریتمها، بهجای عدالت، مرگ را توزیع میکنند دیگر نمیتوان گفت «ما فقط یک مهندس بودیم».
باشگاه فناوران اطلاعات مکانی
⏺محققان در غرب چطور آدم میکشند؟ ⏺شاید خیلی از ما ذهنیتی مثبت نسبت به شرکتهایی مثل گوگل و آمازون داشته باشیم—نمادهای نوآوری، آزادی، و آینده. اما پروژه نیمبوس نشان داد که این آینده، اگر بیاخلاق باشد، میتواند به ماشین مرگ تبدیل شود. ⏺در سال ۲۰۲۱، گوگل و…
این متن با هوش مصنوعی در رابطه با همکاری گوگل با اسراییل نوشته شده.