Telegram Web Link
И еще хочу приложить сюда статью Саеда Мустафа Али «Prolegomenon to the Decolonization of Internet Governance»  про колониальность интернет-управления и деколониальную возможность, где посвящается достаточно много места подробному анализу текстов ключевых исследователей в интернет-управлении. Статья большая, плотная и непростая. Я осилил ее за несколько попыток, но по итогу она мне очень нравится.
В твиттере сейчас обсуждается статья "What they do in the shadows: examining the far-right networks on Telegram", причем не так, как это зачастую происходит. Чаще всего научные статьи в твиттере получают похвалу коллег, но конкретно в этой ситуации в комментарии пришли те, кто в исследовательском дизайне прежде были объектами исследования.

Задумка работы в следующем: многие авторы право-радикальных каналов уходят из социальных платформ и приходят в Телеграм – менее регулируемую платформу и потому более «свободную» для такого контента. Многие люди были искренне удивлены тем, что увидели себя как данные, ставшие частью работы про право-радикальные каналы. И многие из откликнушихся в комментариях идентифицируют себя как приверженцы прямо противоположных политических взглядов или просто не понимают, почему их канал стал частью право-радикального списка.  

Этика в исследованиях сейчас преимущественно построена на идее того, что если ты как исследователь работаешь с людьми напрямую, то с тебе спросят, как ты это делал, а также зачем и почему. Но что делать, если мы говорим об исходно цифровом контенте, когда авторы тг-каналов и их контент — строки в датасете?

Для Бруно Латура любые социальные группы — не внешние продукты, слепленные из материала "социального". Напротив, группообразование — постоянный процесс, в котором принимают участие в том числе и социальные исследователи, когда говорят о "нации", "высшем среднем классе", "молодежи" и других группах. В этом смысле границы между группами сами становятся результатами работы разных акторов, к которым социальные исследователи также принадлежат.  

И хотя об этике в исследованиях часто думают как о чем-то, что должно быть сделано "до" или "после" исследования, мне кажется здесь очень полезным идея интернет-исследовательницы Аннет Маркхэм, которая говорит об этике как части метода. Тогда этика не начинается и не заканчивается в определённые моменты исследования: она сопровождает весь процесс. Таким образом, соединяя здесь Латура и Маркхэм, мы можем спросить: насколько этичным был процесс группообразования в данном случае? На каких основаниях мы как исследователи относим скрывающихся за операционализированными метриками людей и контент к определённым категориям? Готовы ли мы к тому, чтобы отстаивать метрики, когда "объекты" исследования неожиданно для нас приобретают конкретное обличие и голос?
Дима интересно написал про шумную историю с исследованием праворадикального телеграмом.

в данных исследователей многие нашли себя, своих друзей, левых феминисток и канал с гифками про собак.

Латур и Маркхэм нам здорово помогут понять, как действовать иначе, согласна. но ещё важно помнить про вот что:

- исследование абсолютно нечувствительно к контексту, с которым работает

- ясных механизмов влияния на репутацию и судьбу статьи нет, будут и дальше цитировать статью про праворадикальные гифки про собак

- авторша исследования написала нескольким людям в духе 'почитайте нашу методологию, а если не получается понять, почитайте ещё раз'

- исследование опубликовано в хорошем журнале, значит редакторы и ревьюеры согласились с тем, что оно годное

в общем, этика этикой, но когда говорят, что это — исследование интернета, и на дата-аналитические курсы выстраиваются очереди, это всё очень странно, друзья.
Этика в социальных исследованиях - важный предмет, вокруг которого постоянно идут дискуссии. Интересный кейс рассматривает @datastudies. И, на мой взгляд, совершенно справедливо акцентирует внимание на идее известной исследовательницы А. Маркхэм о том, что этика должна быть частью метода. И важно здесь не только применение соответствующих норм при сборе и обработке данных, чтобы не ранить чувства объектов изучения, но и умение грамотно инкорпорировать этические принципы в исследовательский дизайн без ущерба для аналитической составляющей метода.

Мне эта история напомнила, как однажды на большой международной конференции учёная из России выступала с докладом об исследовании оппозиционных и экстремистских сетей во Вконтакте. И в презентации у неё были скриншоты аккаунтов с персональными данными, а имена и фамилии указывались в сетевых картах. И никто из слушателей не указал ей на нарушение этических принципов, что меня очень и очень удивило. Потом мне пришлось долго и с примерами объяснять своим студентам, которым её доклад, кстати, очень понравился, что так делать нельзя.

Получается, что даже наличие в учебных планах дисциплин по этике научных исследований не спасает. Их содержание студентами часто рассматривается как что-то абстрактное и не имеющее отношения к реальной исследовательской деятельности. И это, несомненно, наше преподавательское упущение - видимо, мы и сами не такие уж "этичные".
#методология

UPD. Оказалось, что опубликованная статья задела многих. Можно почитать ещё реакции
https://www.tg-me.com/rufuturism/19468
https://www.tg-me.com/club4internet/345
https://www.tg-me.com/verdachtig/922
В статье «Platform enclosure of human behavior and its measurement: Using behavioral trace data against platform episteme» Angela Xiao Wu & Harsh Taneja предлагают эпистемологически проблематизировать обращение к данным из социальных медиа для понимания человеческого поведения. Когда исследователи анализируют данные из соцсетей, то между данными и поведением обычно устанавливаются отношения репрезентации: вот это те маленькие следы, которые мы оставляем, гуляя по платформам. И они же дают нам способ посмотреть на них как отражение человеческого поведения, к пониманию которого исследователи хотят подступиться поближе.

Но насколько в такой трактовке принимаются в расчет сами «условия измерения», меняющие наше поведения? Ведь платформы не только дозволяет, определяют, оформляют определенные пользовательские действия, но также они выстроены с целями получения прибыли. Это банально, но это важно для осмысления эпистемологии количественных исследований, обращающихся к платформам. Если коммерческая ориентированность платформ на захват пользовательского внимания является институциональным условием производства данных, то конструкция данные -> поведение рушится, а вместо нее нам придется переосмыслить как она трансформируется при учете материальности платформ.

Thus, it is difficult to tell to what extent the patterns emerging from platform data are about “us,” rather than testimonies to the effects of platform nudges. (из заметки о статье)
Forwarded from РУКИ
Курьеры в США начали устанавливать смартфоны на деревьях, чтобы перехитрить алгоритмы и получать больше заказов. Сервис доставки продуктов Amazon Flex работает примерно так же, как Uber: курьер, который оказывается ближе всего к магазину, получает заказ первым – он забирает продукты и отвозит их на своей машине клиенту.

Flex постоянно сканирует местоположение работников и выбирает самый быстрый вариант. Иногда все решает буквально несколько секунд и пара метров – если курьер стоит у входа в Whole Foods, шансов на успех у него больше, чем у конкурента, который сидит на парковке.

В Bloomberg предположили, что один смартфон на дереве раздает заказы сразу нескольким курьерам. Этот лайфхак не позволяет Amazon понять, какой именно аккаунт "ломает" систему. Вероятно, кто-то настраивает сервис и берет с курьеров небольшой процент за свои услуги.

Первыми на “читерство” обратили внимание другие курьеры – они заметили, что некоторые конкуренты получают заказы чаще и быстрее других. Amazon уже начала свое расследование.

Протест против работы алгоритмов – интересный феномен последнего десятилетия. Журнал Logic недавно рассказывал, как сотрудники Amazon обманывают алгоритмы, чтобы избежать контроля и слежки со стороны компании. Например, накручивают очки за эффективность. Иногда работники из чувства протеста идут на саботаж – находят в базе товары с ошибочно низкими ценами и закупают их оптом или нарушают правила безопасности. Некоторые устраивают пранки, чтобы снять стресс. Как пишет Logic, In this context, daily acts of resistance serve as body and sanity-saving strategies. Small workarounds — tricks, games, minor sabotage — extend the time one can bear the relentless and deadening grind.

Кстати, недавно стало известно, что Amazon нанимает “разведчиков”, чтобы отслеживать попытки сотрудников создать профсоюзы – активистам профсоюзных групп будут ограничивать доступ к офисам и складам с помощью охранных ордеров.
На Сигме вышла статья про роль технологий и новых цифровых инфраструктур в организации поддержании протеста в Беларуси. Она от куратора и исследовательницы Антонины Стебур и художника и писателя Алексея Толстова. 

Интересное чтение и нравится, насколько ясно там обозначена техноутопическая позиция. При этом вот я все же после прочтения в сомнениях – не уверен, что такое утопическое воображение должно основываться на том, что «молодой интернет 90-ых … производил инфраструктурную материальность всеобщего равенства, которое было главным условием подключения к сети, моделировал мир без границ и иерархий». И в раннем интернете было много гендерных, расовых, колониальных и обусловленных (технической) экспертностью иерархий, и поэтому большой вопрос, насколько интернет в этом смысле вообще когда-то соответствовал такому представлению. И не уверен, что неиерархичность/горизонтальность политически устроены именно так, как описывается в тексте, но мне эту мысль развить дальше сложно.

Но еще мне понравилось про Голос и анализ протоколов с голосами как про «публичну. инфраструктуру подсчета и контроля прозрачности подсчета голосов». Кажется, что такие инфраструктуры альтернативной репрезентации воли народа как оспаривания государственной – это вообще очень большая и интересная тема, как в Беларуси, так и в России. Григорий Юдин пишет о чем-то похожем в статье «Governing Through Polls», когда говорит о «возвращении непредставленного» на парламентских выборах 2011 и мэрских выборах в Москве в 2013.  

Здесь мне вспоминается такое понятие как counter-data action (не знаю, как перевести хорошо). К нему обращались, среди прочих, исследователи Аманда Менг и Карл ДиСалво. Они прослеживали, как черные активисты в Атланте мобилизовались и самоорганизовывались, и как через сомнение к собранным местным правительством данным и создание своих собственных датасетов, активисты выступали за более доступное для их сообщества жилье. 

А еще в том тексте на Сигме тепло описана политизация инфрастуктур заботы и «слабость» как точка опоры политического сопротивления.
​​а много вы знаете про историю югославского DIY-компьютера Galaksija?

Antonić found a name for his computer: the Galaksija. The limits of its 4K of memory forced many idiosyncratic design choices, like its error message:

* WHAT? (syntax error)

* HOW? (input error)

* SORRY (out of memory)
Антисоциальная «Социальная дилемма»

Я посмотрел нетфликовскую документалку про ужасы социальных сетей «Social Dilemma», и мне есть что сказать. Не буду говоорить о киноязыке (там все тоже не очень хорошо), но скажу о другом – как в фильме оформляются проблемы и решения, связанные с технологиями.

Во-первых, статус детей в этом фильме. Один из главных героев попадает в т.н. «кроличью нору» (рекомендации, ведущие вас к теориям плоской Земли и пр.) Ютуба и приближается к радикализации вымышленным политическим движением, а в конце фильма героя и его сестру (она, к слову, уверенно социальные сети отрицает) драматично связывает полиция на митинге. Проблема в том, что способ критики социальных сетей и тинейджеров в фильме не сильно отличается от совсем уж прямолинейной моральной паники вроде «эти гаджеты забирают у нас наших детей». Сами же дети рисуются как безвольные субъекты, которые  вообще не способны ни к какому сопротивлению и послушно выполняют то, что им скажут их смартфоны. 

Да, проблема «кроличьих нор» реально существует, и вот здесь есть такой потенциал для фильма, ведь мы так мало об этом знаем. Именно здесь, как кажется, документальность фильма и могла проявиться, но вместо этого мы опять видим клише. Почему создатели фильма не позвали, к примеру, Соню Ливингстон или Дану Бойд – исследовательниц, посвятивших года, чтобы понять, как подростки используют социальные платформы? 

Во-вторых, герои фильма по преимуществу это такие «пробудившиеся» белые чуваки, бывшие работники техиндустрии, которые раньше «хотели нести свет и добро технологией», а сейчас поняли, что что-то идет не так. Среди них главный персонаж – Тристан Харрис, сооснователь Центра гуманистических технологий, которого еще называют «совесть Кремниевой долины». Харрис в какой-то момент фильма говорит примерно следующее: «Никто так сильно не переживал как сейчас, когда появилсь велосипеды». Но это просто неправда! Переживали и много, вот про женщин, например. В какой-то момент Харрис еще отличился тем, что предложил в своем Твиттере создать исследовательскую область, которая занималась бы взаимоотношений науки, технологий и общества. Но такая область существует уже 50-60 лет. 

И не то чтобы плохо не знать про велосипеды или про какую-то исследовательскую область, но кажется, что если ты позиционируешь себя как публичное лицо и эксперт по проблеме, то, мне кажется, важно знать, какая интеллектуальная работа здесь была проделана до тебя (или хотя бы знать, что она существует). И пример с велосипедами, который Харрис так неосознанно выбрал, на самом же деле замечательный здесь, поэтому жаль, что он не мог его раскрутить. 

И то, что предлагает Харрис – как в целом в своей работе, так и в фильме – особая версия техгуманизма, где решением нашей «зависимости от технологий» является усовершенствованный дизайн. С такой идеей есть много проблем, но я не скажу об этом лучше, чем Бен Тарнофф и Мойра Вейгель в их статье. Она начинается с гениального предложения «Big Tech is sorry» и разбирает как сами идеи нового технологического гуманизма, так и их влияние на индустрию.   

В-третьих, в целом кажется не очень удачным критиковать фильм за то, чего в нем нет, но немного хочется об этом все же сказать. Кажется очень странным, что в фильме почти полностью отсутствуют перспективы небелых активистов и исследователей, а проблемы расизма совершенно не обсуждаются. Постоянное обращение к универсальной человечности в фильме, которой угрожают социальные платформы, разнообразие человеческого опыта явно не учитывает. И экономические, социальные и идеологические аспекты техиндустрии также остаются в тени. А конец фильма с посылами «давайте щепотку регулирования» и «но все же все не так плохо, конечно» впечатление также не улучшает.
Марианн ван ден Бумен - Как цифровое становится социальным

Начиная с 1980-х социальные объединения пользователей BBS-сетей и раннего интернета начали привлекать внимание общественности. Уже в 1987 году Говард Рейнгольд (журналист и лектор, один из первых писавших о компьютерах как инструментах мышления и социального взаимодействия) ввел термин «виртуальное сообщество» для описания этого явления [2]. Но по-настоящему это понятие получило известность в 1993 году, когда Рейнгольд опубликовал знаменитую книгу «Виртуальное сообщество: заселение электронных рубежей» [3]. Термин «виртуальное сообщество» стал частью дискуссий об интернете в 1990-х: в частности, дискуссий о перспективах развития интернета и потенциальном росте охвата пользователей. Термин – а в особенности его оптимистические, и даже утопические, импликации – критиковался с момента своего появления [4]. Но в массовой культуре и зарождающемся академическом дискурсе о киберпространстве и киберкультуре он превратился в устоявшийся концепт для обозначения более или менее стабильных форм коллективного онлайн-общения.

http://www.intelros.ru/readroom/nz/130-2020/42754-kak-cifrovoe-stanovitsya-socialnym.html
Воображаемые и будущности

В исследованиях науки и технологии есть концепт «социотехнических воображаемых». Эта идея отсылает к связке между проектами технонауки и теми представления о (не)желаемом будущем, которых мы как коллективы придерживаемся. Мы с коллегами некоторое время назад написали материал, пытаясь разобраться в этой идее. Чтобы завлечь вас скажу, что там описывается исследование антрополога Джошуа Баркера про историю индонезийского интернета. Баркер особенно известен за книгу «Engineers and Political Dreams: Indonesia in the Satellite Age» и потому сравнивает в своей работе интернет со спутниками.  

Но здесь мне больше хотелось написать не о исследованиях, а о том, что после прочтения книги Т. Мортона «Стать экологичным» я думаю о том, насколько наши представления о будущем технологий и науки основаны на определенном виде будущности (futurality). Насколько я понимаю, для Мортона наш способ планирования и проектирования конкретных объектов сильно ограничен антропоцентричностью нашего взгляда. И поэтому мы мы, как кажется, редко учитываем, как будущность многих объектов постоянно раскрывается по-разному для других живых и неживых существ. Вот что Мортон пишет: 

"Следовательно, нам нужно проявлять осторожность, когда мы, люди,создаем какие-то проекты, поскольку мы буквально проектируем будущее, и это будущее не совпадает с нашей идеей о вещи, с тем, как, по нашей мысли, она будет использоваться и т. д., — последнее является лишь нашим режимом доступа. Будущее возникает непосредственно из самих объектов, задуманных нами. [...] Выходит, проектировщикам надо задумываться о том, что именно они проектируют. Когда они что-то разрабатывают, возможно, им следовало бы мыслить в нескольких разных темпоральных масштабах. Пластиковый пакет предназначен не только для людей. Он еще и для чаек, которые в нем задыхаются, и теперь мы можем видеть это на фотографиях таких художников, как Крис Джордан, который фотографирует существ, застрявших в тихоокеанском «мусоровороте». Кружка из полистирола — не только для кофе: она будет медленно перевариваться почвенными бактериями в течение пятисот лет."  

И Мортон здесь, как я понимаю, более осторожен, чем некоторые другие теоретики, которых волнуют схожие проблемы. Нам недостаточно просто обозвать привычные будущности антропоцентричными и демонстративно откинуть их, чтобы на их месте возникли магические «постчеловеческие» и «прогрессивные» будущности, что бы это ни значило. Но все же, размышляя о Мортоне в связке с идеей социотехнического воображения, интересно, как можно было бы помыслить технонауку и ее связку с конкретными социально-политическими идеями и проектами таким образом, чтобы сделать возможными новые типы будущности?
если кто-то вдруг занимается темами вокруг surveillance & society, то исследовательская сеть Surveillance Studies Network открыла конкурс микрогрантов до 500 фунтов для исследователей из регионов с меньшим количеством экономических ресурсов.

надо написать короткий пропоузал о том, что за исследование вы делаете (и куда пойдут деньги). подавать можно до 31 октября.
Forwarded from mediajesus
Осень просто пожар, для каждой нашей медиа сестры и каждого диджитал брата, не иначе!

Завтра, в 16:00 на онлайн конференции в рамках Data Fest начнется показ докладов от художников, работающих с машинным обучением.
После каждого доклада будет живое общение с авторами.

Никита Панин на примере своего проекта «The perenneural philosophy» поделится мыслями и деталями использования StyleGan2 в качестве инструмента для выразительного осмысленного генеративного визуального искусства.

Олеся Ильенок расскажет о проекте WALL FOR SCROLL - практике стрит-арта в цифровом слое города Владивостока, Россия.

Александр Нотченко расскажет о классе вероятностных моделей GLOW и их применении в motion capture для речи.

Вадим Эпштейн расскажет о «темной стороне» StarGAN2. Доклад иллюстрирован премьерными работами художника.

Показ докладов пройдет а комнате ML ART в spatial chat: https://spatial.chat/s/ods
пароль: allhailtheoneandonlypartyparrot

Еще больше подробностей тут
Forwarded from Ivan Begtin (Ivan Begtin)
Незаслуженно пропущенная мной новость о том что Mozilla опубликовали исследования в направлении Data Futures [1], например, отчет Shifting Power Through Data Governance [2] о 7 подходах в управлении данными, это такие подходы как:
- data cooperative (кооператив данных)
- data commons (общие данные)
- data collaborative (совместные данные)
- data trust (фонд данных)
- data fiduciary (дата-опека)
- Indigenous data sovereignty (автохонный суверенитет над данными)
- data marketplace (маркетплейс данных)

Исследование более чем полезное для всех кто хочет понимать как будет развиваться дальнейшее регулирование работы с данными в ЕС, США и других странах. Как будет устроено управление данными в некоммерческих организациях.

Ссылки:
[1] https://foundation.mozilla.org/en/initiatives/data-futures/
[2] https://drive.google.com/file/d/1OB9iXHFCxk4Dc-1E5B_O48LKCC6mWtcT/view

#data #datapolicy
Forwarded from следуй
Всем привет!
Нескончаемые новости о COVID-19, периоды самоизоляции и ограничительные меры - все это наверняка повлияло на каждую и каждого в частном, на институциональную систему в целом. Но как именно? И какие выводы из периода первой волны стоит учесть, чтобы этап восстановления (нас с вами и общества) проходил эффективнее?

Нам стало интересно порефлексировать и обсудить с представителями разных стран и областей интересов, какие предпринятые меры были более успешны и эффективны, как изменился мир (и изменился ли) с ковид-опытом, как самоизоляция и ограничения повлияли непосредственно на людей.

Итак, на этой неделе нас с вами ждет серия интервью в Zoom:

8.10 (чт) , 14.00 (МСК) - Великобритания, британские арт-активисты DAZZLE, на англ.

10.10 (сбб), 15.00 (МСК) - Франция, PhD, научная сотрудница Center for Internet and Society (Париж, Франция), UX-дизайнерка в проекте Delta.Chat Ксения Ермошина, на рус.

11.10 (вскр), 19.00 (МСК) - Россия, основательница аналитического центра «Этика и технологии» и кампании против тотальной слежки и распознавания лиц NoFacialRecognition Алёна Попова () и генеральный директор Tazeros, специалист по анализу данных Артур Хачуян

27.10 (вт), 16.00 (МСК) - США, автор книги The Costs of Connection Ulises Mejias


И мы приглашаем вас тоже принять участие в обсуждении, поделиться своими историями, задать нашим гостям вопросы!

Ссылка на регистрацию: https://followfollow.timepad.ru/event/1450022/
Инстаграм проекта: https://www.instagram.com/sledui_follow/
скоро в нем появится больше информации о каждом из наших гостей, а также именно там будут все апдейты по мероприятию!

Строго 18+
в этой истории особенно интересно, как после этого треда в твиттере многие пользователи начали экспериментировать с разными изображениями, выдвигать свои собственные «народные» теории о том, как работают эти алгоритмы, и почему они выбирают показать то изображение, а не другое.

в дискуссиях под этими тредами можно найти как предположения о том, что все связано с яркостью и цветом, так и рассуждения о предрассудках в алгоритмах – пользователи по-разному атрибутируют причины и распределяют ответственность в этом кейсе.

и тут, конечно, интересно даже не столько то, как _на самом деле_ (что бы это ни значило) работают эти алгоритмы, а скорее то, как как люди через обсуждение, эксперименты и обмен аргументами пытаются их осмыслить
Forwarded from Tezeta
​​Расизм алгоритмов

Один парень написал в твиттере, что во время общения в Zoom у его коллеги пропадала голова при использовании функции подложенного фона. Ошибка алгоритма, видимо, возникала из-за того, что коллега - темнокожий. Пост сопровождался иллюстрацией тревожного бага - до его возникновения и после.

История не была бы такой эпичной, если бы в свою очередь Твиттер не обрезал эти иллюстации так, что предпросмотр показывал только белое лицо. Люди в треде стали ставить разные эксперименты и Твиттер раз за разом делал этот выбор - показывал Макконнела вместо Обамы🤦🏿‍♂️ Поразительная история!

Тут требуется умный комментарий в духе wrongtech о том, как технология, обученная на гигантских массивах данных, воспроизводит неравенство нашего мира. Или же это случайность? И как автоматизация уживается с моральностью? Там в треде ещё море подобных примеров, в том числе рекламируют книгу 2018 года Algorithms of Oppression: How Search Engines Reinforce Racism
⚡️⚡️⚡️10 октября я запускаю первый в России образовательный курс по цифровой доступности для людей с инвалидностью!

Цифровая доступность зависит не от руководства компании, а от дизайнеров и разработчиков. Каждый день работая над цифровыми продуктами, именно мы принимаем это решение. Мы делаем это каждый день, когда выбираем цвет для шрифта, когда решаем, как элемент будет сделан в коде.

Этот курс для тех дизайнеров и разработчиков, кто хочет систематизировать знания по доступности, и кому важно вносить свой вклад в создание равных возможностей в интернете.

Это онлайн курс на 5 недель по 4 часа в неделю.

Мы пройдем все этапы, которые позволят систематизировать и проработать информацию: эмпатия —> теория —> практика —> тестирование —> защита.

Совсем скоро у нас появится возможность познакомиться друг с другом! Вместе со мной этот курс будут вести разработчик, незрячий тестировщик, продуктовый дизайнер и соавтор нового российского ГОСТа по доступности.

Больше информации на kurmak.info и до встречи❤️
​​В это воскресенье можно полистать новый выпуск журнала Dissent «Технологии и кризис работы». Из введения:

«While both techno-pessimists and techno-optimists have long claimed that automation will end work as we know it, COVID-19 has also taught the inverse lesson: much work cannot be automated. The labors of the health and care sectors in particular show the limits of technology. The bodies that we bring to work—their identities and histories and desires—run up against these limits. This generates a novel political cleavage: between the embodied and the remote worker»

А внутри – эссе про платформизацию заботы, рассуждения про будущее автоматизации в контексте пандемии и о платформенной работе, похожей на сдельную работу швей в конце XIX и начале XX в.

Совместить это можно с аннотированным ридинг-листом «Труд и технологии» от института Data & Society.

Ну, а завтра тогда уже можно и на работу.
2025/07/13 22:01:54
Back to Top
HTML Embed Code: