Научный репортер
Произведена революция в картографировании римских дорог Международная команда археологов создала цифровую карту дорожной сети Римской империи «Itiner-e», почти удвоив известную протяжённость древнеримских дорог — с 190 тысяч до 300 тысяч километров, что эквивалентно…
просто под предлогом исследования римских дорог товарищи обфотографировали каждую тропинку в европе и рядом, ничего подозрительного
😁19👏6🤣3
Научный репортер
Произведена революция в картографировании римских дорог Международная команда археологов создала цифровую карту дорожной сети Римской империи «Itiner-e», почти удвоив известную протяжённость древнеримских дорог — с 190 тысяч до 300 тысяч километров, что эквивалентно…
за кулисами развернулась научная дискуссия
😁19🤣10👍3🔥1
лично я убежден что в гуманитарных науках цифровизация без открытости не ведет к формированию общественного блага, а ничем другим инициативы в области культуры, истории и тд. быть не могут.
золотые слова
Telegram
Ivan Begtin
В контексте премии по открытому доступу в гуманитарных науках (humawards.ru) о том как предоставлять материалы в открытом доступе.
1. В основе открытости данных исследователей лежат принципы FAIR (Findability, Accessibility, Interoperability, Reuse). Описание…
1. В основе открытости данных исследователей лежат принципы FAIR (Findability, Accessibility, Interoperability, Reuse). Описание…
❤19🔥1
Полезное про плагины для Zotero. Я хотя давно пользуюсь, лет 15, но никогда так глубоко не копала. Буду разбираться. https://t.iss.one/slishkom_dushno/94
Telegram
Слишком душно
#инструменты
Ещё один очень полезный плагин для Zotero — Attanger. В Zotero 7 он выполняет примерно те же задачи, что и плагин ZotFile в Zotero 6 версии, которой некоторые всё ещё пользуются — а именно обрабатывает связанные (прикреплённые) файлы. Под обработкой…
Ещё один очень полезный плагин для Zotero — Attanger. В Zotero 7 он выполняет примерно те же задачи, что и плагин ZotFile в Zotero 6 версии, которой некоторые всё ещё пользуются — а именно обрабатывает связанные (прикреплённые) файлы. Под обработкой…
❤9👍1🔥1👨💻1
Стоило только задуматься о контроле “температуры” модели в
Попробовала, задавая один и тот же вопрос: “Что такое метафора?”
Максимальная температура для моделей OpenAI = 2. На этом уровне они начинают бредить, как студент-первокурсник, злоупотребляющий дерридой (креативность как она есть):
На нуле — абсолютная предсказуемость, как у выгоревшего профессора, который каждый год читает вступительную лекцию по одному и тому же конспекту:
А на какой температуре пишете вы? 🔥 или ⛄️?
{ellmer} — а Хадли уже прикрутил новую функцию params(). Буквально в минувшем сентябре. Попробовала, задавая один и тот же вопрос: “Что такое метафора?”
Максимальная температура для моделей OpenAI = 2. На этом уровне они начинают бредить, как студент-первокурсник, злоупотребляющий дерридой (креативность как она есть):
Метафора – это перенесённое, сравнениеобразное соображение, когда признак либо качества предмета описывается термином, относящимся именно быту, но обозначая другой предмет.
На нуле — абсолютная предсказуемость, как у выгоревшего профессора, который каждый год читает вступительную лекцию по одному и тому же конспекту:
Метафора — это фигура речи, при которой слово или выражение переносит значение из одного предмета в другой, создавая образное сравнение без использования союзов «как», «словно» и т.п.
А на какой температуре пишете вы? 🔥 или ⛄️?
☃8❤🔥7🐳4❤2👍1🔥1
Forwarded from Системный Блокъ
«Системный Блокъ» объявляет предновогодний набор участников!
«Системный Блокъ» расширяется и приглашает новых авторов, редакторов, менеджеров, дата-аналитиков, разработчиков. Если вы давно хотели к нам присоединиться и не знали, как, — сейчас самое время!
Мы — волонтерское издание. В нашей команде люди из совершенно разных сфер: филологи, программисты, менеджеры, историки, журналисты и аналитики. Нас объединяет интерес к науке и технологиям, а также желание вдохновлять людей интересными материалами, исследованиями, новостями, тестами.
Как вы поняли, нам не хватает только вас.
Ниже вы найдете набор ролей, которые могут быть интересны вам или вашим друзьям. Если что-то из этого вам близко, добро пожаловать к нам! Если вы хотите присоединиться, но идеальной роли нет, то все равно оставляйте заявку.
1. Авторы в рубрики NLP, «Филология», «Образование», «Биоинформатика», «Востоковедение»
2. Кураторы рубрик NLP, «Лингвистика» и «Филология»
3. Редакторы текстов
4. SMM-Lead / Менеджер отдела SMM
5. Контент-менеджер Telegram-канала
6. Выпускающий редактор сайта
7. Куратор рубрики «Интервью» / Менеджер интервью
8. PR-менеджер
9. HR-менеджер
10. Иллюстраторы и менеджер иллюстраторов
11. Редактор ИИ-портала
12. Авторы-энтузиасты нейросетей
13. Менеджер направления в дата-отделе
14. Автор-исследователь в дата-отдел
15. SEO-специалист на сайт
16. Аналитик на сайт
17. Продакт-менеджер сайта
18. UX-дизайнер сайта
19. Менеджер портала про цифровое образование
20. Разработчик WordPress на сайт
21. Разработчик Next.js (React)
22. Разработчик n8n
23. Разработчик Apps Script
Полное описание задач и пожеланий к участникам смотрите в этом документе.
Если вас заинтересовала одна из ролей – приглашаем заполнить форму до 29 ноября. Проект полностью волонтерский, мы не платим денег. Зато у нас человечный менеджмент, отлаженные процессы и хорошая репутация в русском научпоп-сообществе. Присоединяйтесь!
🤖 «Системный Блокъ» @sysblok
«Системный Блокъ» расширяется и приглашает новых авторов, редакторов, менеджеров, дата-аналитиков, разработчиков. Если вы давно хотели к нам присоединиться и не знали, как, — сейчас самое время!
Мы — волонтерское издание. В нашей команде люди из совершенно разных сфер: филологи, программисты, менеджеры, историки, журналисты и аналитики. Нас объединяет интерес к науке и технологиям, а также желание вдохновлять людей интересными материалами, исследованиями, новостями, тестами.
Как вы поняли, нам не хватает только вас.
Ниже вы найдете набор ролей, которые могут быть интересны вам или вашим друзьям. Если что-то из этого вам близко, добро пожаловать к нам! Если вы хотите присоединиться, но идеальной роли нет, то все равно оставляйте заявку.
1. Авторы в рубрики NLP, «Филология», «Образование», «Биоинформатика», «Востоковедение»
2. Кураторы рубрик NLP, «Лингвистика» и «Филология»
3. Редакторы текстов
4. SMM-Lead / Менеджер отдела SMM
5. Контент-менеджер Telegram-канала
6. Выпускающий редактор сайта
7. Куратор рубрики «Интервью» / Менеджер интервью
8. PR-менеджер
9. HR-менеджер
10. Иллюстраторы и менеджер иллюстраторов
11. Редактор ИИ-портала
12. Авторы-энтузиасты нейросетей
13. Менеджер направления в дата-отделе
14. Автор-исследователь в дата-отдел
15. SEO-специалист на сайт
16. Аналитик на сайт
17. Продакт-менеджер сайта
18. UX-дизайнер сайта
19. Менеджер портала про цифровое образование
20. Разработчик WordPress на сайт
21. Разработчик Next.js (React)
22. Разработчик n8n
23. Разработчик Apps Script
Полное описание задач и пожеланий к участникам смотрите в этом документе.
Если вас заинтересовала одна из ролей – приглашаем заполнить форму до 29 ноября. Проект полностью волонтерский, мы не платим денег. Зато у нас человечный менеджмент, отлаженные процессы и хорошая репутация в русском научпоп-сообществе. Присоединяйтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
Google Docs
Присоединяйтесь к команде Системного Блока.
«Системный Блокъ» — издание о цифровых технологиях в культуре, искусстве, образовании и обществе. Нам интересно писать о том, как трансформируется человеческая культура в век больших данных, беспилотных автомобилей и интеллектуальных алгоритмов. Мы хотим…
❤8🔥1
Множество Мандельброта представляет собой потрясающий пример. Его удивительно сложная структура не является результатом изобретения ни какой-либо отдельной личности, ни группы математиков. ...Создается впечатление, что рассматриваемая структура не является всего лишь частью нашего мышления, но что она реальна сама по себе. Кто бы из математиков или программистов ни занялся изучением этого множества, результатом их исследований обязательно будут приближения к одной и той же единой для всех фундаментальной математической структуре. ...При этом компьютер применяется в сущности так же, как прибор в руках физика- экспериментатора, исследующего строение физического мира. Множество Мандельброта — это не плод человеческого воображения, а открытие. Подобно горе Эверест, множество Мандельброта просто-напросто уже существовало «там вовне»!
Роджер Пенроуз. Новый ум короля (1989, рус. пер. 2003)
Визуализация создана на R с использованием
{ggplot2}. Цвет показывает, сколько итераций потребовалось для определения принадлежности точки к множеству.❤17🔥1
Между тем освоила и вписала в курс по R небольшой, но очень приятный пакет
Позволяет строить эмбеддинги с моделями семейства BERT, опубликованными на Hugging Face.
Требуется виртуальное окружение Python, которое не сложно настроить через
Например, так:
Из ограничений — не подходит для моделей BERT с анализом эмоциональной тональности💔
{text}. https://www.r-text.org/ Позволяет строить эмбеддинги с моделями семейства BERT, опубликованными на Hugging Face.
Требуется виртуальное окружение Python, которое не сложно настроить через
{reticulate}, а также модули nltk и transformers.Например, так:
emb <- textEmbed(
texts = news_sample$text,
# или другая модель
model = "cointegrated/rubert-tiny2",
# по умолчанию
layers = -2,
remove_non_ascii = FALSE
)
Из ограничений — не подходит для моделей BERT с анализом эмоциональной тональности
Please open Telegram to view this post
VIEW IN TELEGRAM
www.r-text.org
Analyses of Text using Transformers from HuggingFace, Natural Language Processing and Machine Learning.
❤17❤🔥7👍3🔥1💔1💅1
Прошедшие несколько дней все мое общение с LLM и гуглом было посвящено поиску наиболее экономных, быстрых, эффективных способов использования трансформеров BERT для анализа эмоциональной тональности в среде R.
Почти все их дебильные рекомендации я попробовала, и мне все не понравилось. Что-то (как йуный пакет `transforEmotion`) начинает требовать конду и ставить не спросясь миллион зависимостей, одна из которых обязательно будет несовместима с вашей ОС. Что-то не работает без сложных танцев с бубном. Что-то просто — некрасиво.
Оказалось, все очень просто и элегантно решается. Нужен пакет
Вот, как бы, и все. Даже обидно: так долго искать и так мало рассказывать. Очень быстро даже без видеокарты. #bert #transformers
Картинка для олдов, они поймут. А может, и олды не поймут. А все равно пусть будет.
Почти все их дебильные рекомендации я попробовала, и мне все не понравилось. Что-то (как йуный пакет `transforEmotion`) начинает требовать конду и ставить не спросясь миллион зависимостей, одна из которых обязательно будет несовместима с вашей ОС. Что-то не работает без сложных танцев с бубном. Что-то просто — некрасиво.
Оказалось, все очень просто и элегантно решается. Нужен пакет
{reticulate}, модуль transformers и подходящая моделька с HuggingFace.
library(reticulate)
use_python("where/your/python/is")
transformers <- import("transformers")
sentiment_pipeline <- transformers$pipeline(
"sentiment-analysis",
model="seara/rubert-tiny2-russian-sentiment"
)
text_data <- c(
"Какая ужасная погода, гремит гром и сверкают жуткие молнии.",
"Мы очень довольны этой великолепной покупкой.",
"Лиза отдала цветы и взяла деньги."
)
results <- sentiment_pipeline(text_data)
results
Вот, как бы, и все. Даже обидно: так долго искать и так мало рассказывать. Очень быстро даже без видеокарты. #bert #transformers
Картинка для олдов, они поймут. А может, и олды не поймут. А все равно пусть будет.
❤21❤🔥8🙏4🔥3🤣1👨💻1
Привет новым подписчикам, а вы откуда? На всякий случай напомню, что это - цифровое амплуа доцента Алиевой, все задушевно-античные сюжеты по соседству @antibarbari
В качестве приветствия пошучу вам шутку (в меру несмешную). Мы ее придумали с дипсиком только что.
P.S.: Подходит также для объяснения git платонику.
В качестве приветствия пошучу вам шутку (в меру несмешную). Мы ее придумали с дипсиком только что.
Как объяснить платоновскую пещеру программисту на примере контроля версий?
Процесс познания как Git-воркфлоу:
1. Вы в пещере: Работаете в своей локальной ветке, не зная, как выглядит актуальный `main`.
2. Пробуждение: Вы делаете `git fetch origin` — узнаете, что существует удаленный репозиторий с эталоном.
3. Стремление к истине: Вы пытаетесь сделать `git rebase origin/main` — привести свой код в соответствие с идеей.
4. Боль просвещения: Возникают `merge conflicts`. Ваша реализация несовершенна, требуется сократический эленхос.
5. Момент познания: успешный rebase и счастье.
P.S.: Подходит также для объяснения git платонику.
👏21🥰12❤7😁5🤷♂3
RAntiquity
Прошедшие несколько дней все мое общение с LLM и гуглом было посвящено поиску наиболее экономных, быстрых, эффективных способов использования трансформеров BERT для анализа эмоциональной тональности в среде R. Почти все их дебильные рекомендации я попробовала…
Еще два полезных пайплайна: поиск именованных сущностей и перевод.
После установки sentencepiece надо перезапустить сессию.
#bert #transformers
library(reticulate)
library(tidyverse)
use_python("/usr/bin/python3")
transformers <- import("transformers")
## 1. поиск именованных сущностей
ner_pipeline <- transformers$pipeline(
"ner",
model="Gherman/bert-base-NER-Russian"
)
results <- ner_pipeline("Москва - столица России")
map_dfr(results, as_tibble)
## 2. перевод
# в терминале pip install sentencepiece
translation_pipeline <- transformers$pipeline(
"translation_en_to_ru",
model="Helsinki-NLP/opus-mt-en-ru"
)
result <- translation_pipeline("I could easily forgive his pride, if he had not mortified mine")
result
После установки sentencepiece надо перезапустить сессию.
#bert #transformers
❤11🔥4👏3
RAntiquity
Еще два полезных пайплайна: поиск именованных сущностей и перевод. library(reticulate) library(tidyverse) use_python("/usr/bin/python3") transformers <- import("transformers") ## 1. поиск именованных сущностей ner_pipeline <- transformers$pipeline( "ner"…
в начале ноября и в начале декабря тоже люблю! и вообще: в начале — и точка. #bert #transformers
😁11❤5
В мае 2025 экосистема
💡Смысл RAG: LLM сначала ищет нужные фрагменты в локальной базе знаний, а потом уже генерирует ответ, опираясь на найденные куски.
На днях наконец собралась попробовать — пока всё на живую нитку:
1️⃣ Собрала корпус: русские переводы Платона — 51 текст (считая отдельные книги).
2️⃣ Разбила на чанки с помощью
3️⃣ Запустила чат с LLM (
4️⃣ Системный промпт: «Ты Платон. Отвечай как Платон» (что это значит — не спрашивайте 🥲).
🔎 Итог: модель подключается к базе, ищет ближайшие чанки по косинусу и использует их для ответа.
Получается… средненько. Например, мой «Платон» иногда думает, что он — Сократ. Но замысел работает.
Для серьезного применения придется подумать о сборе и хранении метаданных и более осмысленной нарезке текстов на чанки. Но это — на вырост 🚀.
p.s. промахи с пагинацией я вижу, если что — в базе ее вообще не было
p.s.s. не уверена, можно ли это считать “нейросеткой под платона”, но что-то в таком карманном платоше есть
{tidyverse} пополнилась пакетом {ragnar} для модного RAG (Retrieval-Augmented Generation).💡Смысл RAG: LLM сначала ищет нужные фрагменты в локальной базе знаний, а потом уже генерирует ответ, опираясь на найденные куски.
На днях наконец собралась попробовать — пока всё на живую нитку:
1️⃣ Собрала корпус: русские переводы Платона — 51 текст (считая отдельные книги).
2️⃣ Разбила на чанки с помощью
{ragnar} и создала локальное хранилище с эмбеддингами (модель text-embedding-3-small от OpenAI; говорят, есть и бесплатные варианты для русского, но лень было искать 😅).3️⃣ Запустила чат с LLM (
o4-mini) и подключила инструмент retrieve через ragnar_register_tool_retrieve().4️⃣ Системный промпт: «Ты Платон. Отвечай как Платон» (что это значит — не спрашивайте 🥲).
🔎 Итог: модель подключается к базе, ищет ближайшие чанки по косинусу и использует их для ответа.
Получается… средненько. Например, мой «Платон» иногда думает, что он — Сократ. Но замысел работает.
Для серьезного применения придется подумать о сборе и хранении метаданных и более осмысленной нарезке текстов на чанки. Но это — на вырост 🚀.
p.s. промахи с пагинацией я вижу, если что — в базе ее вообще не было
p.s.s. не уверена, можно ли это считать “нейросеткой под платона”, но что-то в таком карманном платоше есть
❤21🔥10👍7
Forwarded from DH CLOUD
Вышел новый номер русскоязычного журнала «Цифровые гуманитарные исследования» (2025 №2 (003)).
В рубрике Исследования выступили выпускники DH-магистратуры НИУ ВШЭ разных лет:
Александра Митюкова Онтологическая модель для связывания метаданных музейных предметов
В статье описан пример разработки онтологической модели для концептуализации метаданных английских пейзажных гравюр и предметов Сервиза с зеленой лягушкой, изображающих архитектурные достопримечательности Великобритании.
Ксения Анисимова Анализ тональности русской драмы XVIII–XX вв. как инструмент моделирования художественной структуры
Исследование посвящено описанию эмоциональной динамики как проявления художественной структуры русской драмы XVIII–XX вв. на основе автоматической разметки тональности реплик с использованием нейросетевых моделей BERT-архитектуры.
Елизавета Сенаторова Количественный анализ речи персонажей в экранизации романа Л. Н. Толстого «Анна Каренина» (реж. Александр Зархи, 1967 год)
В центре внимания автора — исследование близости литературного и кинематографического текстов по «плотности» прямой и косвенной речи в романе и в кинонарративе и тематическим моделям, созданным на основе текста оригинала и субтитров к фильму.
Новая для журнала, но вполне естественная, учитывая его специфику, рубрика Инструменты. В ней Борис Орехов сделал обзор не очень известных, но полезных для цифровых гуманитариев программных модулей (Python), помогающих с анализом текста на русском языке.
Журнал открывает еще одну рубрику, История цифровых методов, в которой Андрей Володин представил свою версию периодизации Digital Humanities, рассмотренной в общенаучном контексте эволюции дисциплин.
В номере есть также традиционные Хроника (Мария Кешишян Конференция «Актуальные ошибки гуманитарных наук») и Рецензия (Софья Порфирьева Рецензия на книгу «Герменевтика: компьютерная интерпретация в гуманитарных науках» Стефана Синклера и Джеффри Роквелла), предлагающая русскоязычному читателю обогащение взгляда на цифровую гуманитарную сферу за счет введения в контекст ценного англоязычного источника.
Журнал «Цифровые гуманитарные исследования» — журнал о Digital Humanities на русском языке, ставящий целью объединение сообщества цифровых гуманитариев и развитие русского варианта научного языка, на котором они говорят.
В рубрике Исследования выступили выпускники DH-магистратуры НИУ ВШЭ разных лет:
Александра Митюкова Онтологическая модель для связывания метаданных музейных предметов
В статье описан пример разработки онтологической модели для концептуализации метаданных английских пейзажных гравюр и предметов Сервиза с зеленой лягушкой, изображающих архитектурные достопримечательности Великобритании.
Ксения Анисимова Анализ тональности русской драмы XVIII–XX вв. как инструмент моделирования художественной структуры
Исследование посвящено описанию эмоциональной динамики как проявления художественной структуры русской драмы XVIII–XX вв. на основе автоматической разметки тональности реплик с использованием нейросетевых моделей BERT-архитектуры.
Елизавета Сенаторова Количественный анализ речи персонажей в экранизации романа Л. Н. Толстого «Анна Каренина» (реж. Александр Зархи, 1967 год)
В центре внимания автора — исследование близости литературного и кинематографического текстов по «плотности» прямой и косвенной речи в романе и в кинонарративе и тематическим моделям, созданным на основе текста оригинала и субтитров к фильму.
Новая для журнала, но вполне естественная, учитывая его специфику, рубрика Инструменты. В ней Борис Орехов сделал обзор не очень известных, но полезных для цифровых гуманитариев программных модулей (Python), помогающих с анализом текста на русском языке.
Журнал открывает еще одну рубрику, История цифровых методов, в которой Андрей Володин представил свою версию периодизации Digital Humanities, рассмотренной в общенаучном контексте эволюции дисциплин.
В номере есть также традиционные Хроника (Мария Кешишян Конференция «Актуальные ошибки гуманитарных наук») и Рецензия (Софья Порфирьева Рецензия на книгу «Герменевтика: компьютерная интерпретация в гуманитарных науках» Стефана Синклера и Джеффри Роквелла), предлагающая русскоязычному читателю обогащение взгляда на цифровую гуманитарную сферу за счет введения в контекст ценного англоязычного источника.
Журнал «Цифровые гуманитарные исследования» — журнал о Digital Humanities на русском языке, ставящий целью объединение сообщества цифровых гуманитариев и развитие русского варианта научного языка, на котором они говорят.
❤8🔥7👏4👍1
RAntiquity
Основные переделки коснулись уроков:
8 ) Регулярные выражения. Переделала структуру и примеры: теперь изучаем
{stringr} на примере «Гордости и предубеждения». 9) В урок по веб-скрапингу добавила раздел по сетевой вежливости (кстати, проверила: работает, меня стали меньше блокировать).
10) Уроки по токенизации, лемматизации и анализу частотностей объединились и стали более насыщенными; добавлен раздел про лемматизацию по API (в первом модуле был урок про JSON, который позволяет перейти к такого рода задачам)
11) Удален урок про LSI, вся векторизация объединена в одном уроке: PMI-SVD, Word2Vec, к ним добавлен Bert и раздел про предобученные эмбеддинги. Трансформеры используются через
{reticulate}. 12) В урок про сентимент-анализ тоже добавила раздел про трансформеры. Дерзко, модно, современно.
14) Дописала новый урок про контроль версий с git (это было в прошлом году, но более кратко и без отдельной главы в учебнике). Заодно и сама наконец разобралась с разными способами разрешения конфликтов. Плюс дописала по шагам инструкцию для публикации сайта на GitHub Pages. Замысел в том, чтобы студенты использовали эти знания для представления итоговых проектов.
Еще в этом модуле впервые провела минихакатон по анализу эмоциональной тональности и придумала несколько новых заданий. Кажется, всем было нескучно.
💡Общее наблюдение: по сравнению с ситуацией двух- или трехлетней давности, мелкие вопросы типа добавления геомов в
{ggplot} или переименования столбцов можно давать более кратко. Смещаю акцент на общую логику, детали они все равно обсуждают с дипсиком (чей стиль кодирования я уже стала узнавать). Это значит, что мы успеваем пройти больше, надо делать зумаут на многих сюжетах. Это челлендж, но в целом полезный для расширения горизонта всех участников. Продолжим после праздников! (До которых надо еще дожить).
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33🔥12👍7☃2🎄1
Forwarded from sonja, a kick ass young lady
Интересное философское осмысление dh-методов (и применение этих методов к самой философии) — редкая рыба в океане цифровых гуманитарных исследований.
Но работа «Герменевтика» канадских исследователей Стефана Синклера и Джеффри Роквелла показалась мне довольно удачной: в ней ловко переплетаются теория и практика.
Если вы работаете с цифровым анализом текстов, то наверняка слышали (или даже пользовались) инструментом Voyant, за созданием которого стоят Синклер и Роквелл. Книга «Герменевтика» является теоретическим дополнением этого инструмента — попыткой понять, что именно мы делаем, когда пользуемся цифровыми методами для анализа текстов, в том числе и философских.
Поскольку декабрь никогда не бывает спокойным, а нужно ещё успеть поставить ёлку — кратко о том, что такое гибкая герменевтика, причём тут Хайдеггер и Юм можно прочитать в моей рецензии на книгу.
Но работа «Герменевтика» канадских исследователей Стефана Синклера и Джеффри Роквелла показалась мне довольно удачной: в ней ловко переплетаются теория и практика.
Если вы работаете с цифровым анализом текстов, то наверняка слышали (или даже пользовались) инструментом Voyant, за созданием которого стоят Синклер и Роквелл. Книга «Герменевтика» является теоретическим дополнением этого инструмента — попыткой понять, что именно мы делаем, когда пользуемся цифровыми методами для анализа текстов, в том числе и философских.
Поскольку декабрь никогда не бывает спокойным, а нужно ещё успеть поставить ёлку — кратко о том, что такое гибкая герменевтика, причём тут Хайдеггер и Юм можно прочитать в моей рецензии на книгу.
❤12🔥7👨💻2😁1