Эшу быдлокодит
297 subscribers
135 photos
12 videos
7 files
170 links
Дневник C# разработчика.

Личка: @EshuMarabo
Гитхаб: https://github.com/vladzvx

Стек: C#, PostgreSQL
Download Telegram
Создал небольшой дневничок. Тут будет IT, немного науки и что-то из жизни препода. А также репосты понравившихся новостей. Политоты не будет.

Кратко обо мне. Один из авторов канала @rufuturism, программист, препод в одном из средних московских ВУЗов на 0.1 ставки.

Основной стек технологий: c#, python. Backend с элементами дата саенса. Опыт работы с мая 2018.

По науке и диссертации. 15 публикаций, из них 3 годные (ВАК, Scopus, WoS). Диссертация зависла на пересечении биофизики, оптики и IT, буду разворачивать её полностью в IT. Суть работы - есть редкий вид микроскопии клеток, выдающий сложные для анализа изображения, богатые сокрытой информацией. Я её в меру своей безграмотности оттуда извлекаю, что и составляет новизну. Оно точно ново, но нужно ли кому - вопрос открытый.
Forwarded from Архив КС/РФ(Сиона-Футуриста) (Красный)
В предыдущем посте я упоминал, что клиент телеграма для своих целей собирается очень легко. Собрал небольшой парсер пользователей, состоящих в группах. На скорую руку вступил в крупнейшие политические чатики (45 штук). Общая численность участников – 43671. Из них уникальных пользователей - 40054, удаленных (те, которые висят в списке под именем "Deleted Account")– 486.

Радует благоразумность пользователей: свой номер телефона скрыло от всякого интересующегося подавляющее большинство пользователей. Нескрывших оказалось всего 148, т.е. 0.37%, а российских номеров и вовсе 115.

Для сравнения, в инстаграме доступно около 12% телефонных номеров, по крайней мере именно на этом базируется стартап Export Ninja, который парсит эти данные и продает для таргетинга. В телеграме такие фокусы не пройдут.

Также сделал приблизительный замер активности в чатах. Из тех, кто сейчас состоит в группах, хотябы одно сообщение за последние две недели написали 6412 человек, или 16%. И еще около 6 тысяч уникальных пользователей зашли и вышли, ни оставив ни единого сообщения, кроме "... joined group".

Eshu Marabo
Зачем помнить математику.

Пригорело мне для моделирования разной степени убогости камер в микроскопе смоделировать нелинейность при повышенной яркости картинки. То есть сделать так, чтобы информация, лежащая в яркой части изображения искажалась, т.е. смоделировать состояние, близкое к засвету.

Как это сделать быстро и безболезненно? Стандартное решение - посмотреть логарифмы разных степеней от картинки. Полез я в питоновский NumPy. Нашел готовые реализации для десятичного, натурального и логарифма с основанием 2.

Гуглю, готовых решений не находится. ЧТОЖЕДЕЛАТЬ?! В итоге наткнулся на решение для тупых и забывших математику: вспомнить свойства логарифма, которые в меня безуспешно пытались вбить на первом курсе.

Берем любую из готовых реализаций логарифма, вычисляем ее, а потом получившийся результат дополнительно делим на логарифм той степени, которую хотим получить. И все. Учите дети математику говорили нам, пригодится...
Forwarded from Data is data
Silent fail. Компьютер делает ровно то, что вы ему сказали делать, а вовсе не то, что бы вы хотели, чтобы он сделал.
Пояснение к репосту. Функция np.max ест на вход следующие аргументы: 1й - нечто массивоподобное, в котором надо найти максимум, 2й - дополнительные настройки работы с этим массивом (можно заставить вывести строку максимумов в двумерном массиве, или плоскость максимумов в трехмерном)

Соответственно, np.max(-6,0) значит искать максимумы в массиве, содержащем только -6 по направлению 0

np.max([-6,0]) – значит искать максимум в списке, содержащем числа -6 и 0, в результате максимум – 0.
Нашел артефакт в коде, показывал коллегам чтобы поржать вместе: "смотрите чо я унаследовал!"

А потом вспомнил, что это я его влепил около полутора лет назад, когда в шарпе был невзубногой...
Forwarded from Архив КС/РФ(Сиона-Футуриста) (Красный)
Примерно год назад разработчики Open AI сделали «элетронного копирайтера» — нейросеть GPT-2, способную генерировать связные тексты на английском языке. С повторными упоминаниями имен действующих лиц по ходу повествования, цитатами, отсылками к связанным событиям, и так далее. Чтобы не создавать шторма из фейков, в открытый доступ они выложили усеченную версию нейросети, генерирующую тексты похуже и покороче.

До поры до времени это работало только для английского языка. В январе российский разработчик Михаил Гранкин адаптировал GPT-2 под русский язык, обучая ее на русской классической литературе. Адаптированная версия получила название «Порфирьевич». В итоге получилась занятная игрушка: вводишь начало предложения, а нейросеть добавляет одну-две продолжающие фразы, иногда даже попадая в контекст. Помимо этого, сетка умеет писать стихи; ну как стихи — рифмованные строчки.

Поиграться с «Порфирьевичем» можно на оффициальном сайте porfirevich.ru . Поэт доступен в боте @NeuroPoetBot. Я бы сказал, что по содержательности и форме стихов он приближается к Маяковскому.

Пока плеяда копирайтеров может чуть расслабиться, но конец её близок: как только за генерацией текстов появится реальная выгода, какой-нибудь Яндекс упорется и сделает сервис «копирайтинг по подписке». Пока же «Порфирьевич» выдает довольно укуренные тексты, которые, впрочем, могут сойти за контент, выдаваемый многими пользователями соцсетей.

Приведу пример истории, сочиненной машиной под моим чутким руководством. Жирным выделен текст, введенный мной:
«Мы бежали по тропе от медведя. Он был очень зол и голоден. Медведи все эти годы приводили в негодность те магические предметы, которые им приходилось использовать. И потому они были не прочь поиграть, выпив у костра крови. А Колян был сильным духом и собирался сыграть со старым хищником эту жуткую шутку. Поэтому, подойдя к медведю, он спьяну принялся клевать его за ухо и клыки… И замертво свалился ему под лапы. А тот, видимо, уже не помнил никого в своей жизни страшнее.»

Eshu Marabo