Интересное что-то
525 subscribers
2.72K photos
253 videos
140 files
4.53K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Forwarded from AI для Всех (Artemii)
Кевин Уэйл - CPO OpenAI: как строить AGI‑будущее и не потерять здравый смысл

(конспект живого Q&A в AGI House, San Francisco — на который мне довелось сегодня сходить)


1. От физики элементарных частиц к OpenAI

Кевин мечтал стать профессором, поступил в PhD по физике в Стэнфорде, но… встретил будущую жену‑стартапершу, увидел реальный «драйв Долины» и бросил аспирантуру:

«За 40 лет я мог бы открыть один новый бозон. А мог — написать код и завтра им воспользовались бы миллионы. Я выбрал второе».

После пары “невыстреливших” стартапов он оказался 40‑м сотрудником Twitter, вырос до VP Product к IPO, потом ушёл в Instagram (был один из авторов Stories) и запустил внутри Meta криптопроект Libra. Дальше — Planet Labs (200 мини‑спутников, 40 ТБ снимков Земли в день) и, наконец, OpenAI.


2. OpenAI = исследовательский институт + продуктовая фабрика

> Q: Как совмещать фундаментальную науку и массу коммерческих релизов, да ещё и с новой некоммерческой структурой?

Ответ: «Миссия — принести AGI всему человечеству. Для этого нужны две ноги:

1. топ‑уровень исследований;
2. реальные продукты, максимально дешёвые.

НКО даст деньгам “правильную” социальную траекторию, а for‑profit‑часть остаётся мотором разработки».


3. 25 продукт‑менеджеров на всю компанию

> Q: На подкасте Лэнни вы сказали, что у вас всего 25 PM. Как так?

«Слишком много ПМ‑ов = море слайдов и ноль кода.
Инженеры и дизайнеры делают фичи, ПМ — клей. Когда клея мало, команда свободна рисковать, выпускать недоваренные версии, ловить ошибки в проде и чинить».


4. Страх «AI заберёт работу» и почему это миф

Кевин — оптимист: «Посмотрите Hidden Figures: когда‑то люди вручную считали траектории ракет, но ракетные инженеры никуда не делись — они просто перестали ковыряться в логарифмических линейках. То же будет с кодом. Роботы заберут скучное, а мы возьмёмся за сложное».


5. «Почему вы выбираете большие бренды, а не гаражи?»

«Я не выбираю большие компании. Twitter был маленьким, Insta — тоже, Planet — 400 человек. Меня интересует эффект на мир на одного инженера.»


6. Libra и боль платежей

> Q: Если запускать Libra сегодня, что кроме платежей?

A: «Только платежи! Перевод денег должен быть так же прост, как сообщение в WhatsApp. Особенно для тех, кто сейчас отдаёт 10 % комиссий Western Union».


7. Чат = лишь интерфейс, не рамка исследований

Deep Research, Operator‑агенты, мультимодальные фичи — всё это выходит за рамки «болтушки». Массовая обратная связь подсказывает, какие способности модели нужны людям сейчас а не в теории бенчмарков.

8. AI × Climate: 40 ТБ данных в день — вручную не осилишь

Planet Labs снимает Землю с разрешением 3м каждый день. Разметка «что изменилось» требует дорогих специалистов. Модели должны автоматизировать анализ: от контроля вырубки леса до отслеживания войск.

Кстати, мегапроект Stargate (до $500 млрд на ЦОДы и энергетику в США) заставит OpenAI самим изобретать «зелёные» дата‑центры.


9. Личный рост: завтракайте с незнакомцами

Главный совет: «Выходите из пузыря. Ходите на завтраки “не по теме”, говорите с людьми умнее себя, выращивайте сеть контактов. Через 10 лет удивитесь, как это стреляет».

Часть 2
Forwarded from AI для Всех (Artemii)
Часть 2. Интервью с CPO OpenAI

10. Где сетевые эффекты?

Сейчас ChatGPT = «человек <-> модель». Но уже 500 М еженедельных пользователей ставят 👍/👎 — и этим тренируют модель для всех. Следующий шаг — совместные «треды» с друзьями, но нкжно отполировать как все будет устроено в продукте.


11. Не хотим «сладкого» ИИ‑друга

Случай, когда модель стала льстиво рассказывать, что у вас IQ = 180, заставил OpenAI откатить релиз и публично разобрать ошибки: эмоциональная зависимость — зло.


12. Сколько “базовых” моделей останется на рынке?

Две‑три крупные «семьи моделей» , а поверх — тысячи маленьких специализированных моделей с приватными данными. Инструменты обучения становятся дешевле — значит, срециализированную доменную «наномодель» сможет зафайнтюнить любой стартап.


13. Учиться быстрее: «объясни, как пятилетнему»

Уэйл читает, но часто спрашивает GPT: «Разжуй пост‑тренинг‑технику на уровне детсада, теперь поглубже». Его 10‑летний сын учит код, играя с ChatGPT, а дети уже воспринимают разговор с ИИ как норму, «как включить лампу».



14. Чего не хватает данным?

«Поехать в обычную квартиру в Джакарте и посмотреть, как юзер тупит в интерфейсе». Качественного эмпатического ресёрча мало; метрики из дашборда не покажут, где реальные затыки.


15. Где граница платформы и стартапов?

Принцип «TCP/IP в Windows‑95»: если 20 команд пилят одну и ту же прослойку, платформа должна встроить её и освободить тысячи разработчиков для более высоких уровней. Не конкурировать, а поднимать уровень абстракции.


16. Агентам нужен делегированный доступ

Идеал: «Мой агент читает только метку Receipts в Gmail и тратит до $100 в Instacart». Сейчас такого гранулированного OAuth нет — это ключевой затык в масштабировании.


17. Разница с Twitter

В Twitter идеи вязли в консенсусе: 5 «за», 2 «против» — и стоим. В OpenAI идея → делай. Переключатель «некоммерческая / коммерческая» в новой структуре даёт инвесторам понятную доходность, а НКО — капитал на добро.


18. Как строить доверие к агентам?

Всегда спрашивать подтверждение перед важным действием, пока пользователь сам не скажет «делай молча». Контроль порождает доверие.


19. Неожиданная польза: физики + O3 Mini = новая формула Изинга

Учёные из Лос‑Аламоса использовали O3 Mini, чтобы вывести точное решение модели Изинга в “экзотической” размерности — задача считалась нерешённой. Модели не «изобретают» сами, но ускоряют людей‑учёных в разы.

20. «Хороший характер» модели: 80‑страничный Model Spec

Перед релизом проверяют:

1. Соответствует ли спецификации (что отвечать про третьего римского императора, как реагировать на просьбу о суициде и т.д.).
2. «Вайб‑тест» живых людей. Если криво — дообучаем или переписываем сам Spec.

Часть 1
Forwarded from .ml
Что такое Restoration в компьютерном зрении?

Это способ обратить процессы деградации, с которыми сталкиваются сигналы в реальном мире — изображения, видео, звук.

У Restoration есть несколько характерных особенностей:

📌 Нехватка обучающих данных: собрать качественное GT очень сложно, поэтому важно извлекать максимум информации из минимального количества данных. Часто используют синтетику, но она не может полностью заменить реальные данные.

📌 Высокая степень переобучения: алгоритмы легко переобучаются даже на небольших наборах данных.

📌 Грань между генерацией и реальностью: модель может галлюцинировать, вместо восстановления исходного изображения придумывает детали сама.

📌 Простота: у Restoration задач достаточно простая постановка по сравнению с другими областями в ML, но при этом в них критически важны детали и правильное построение пайплайна.

Restoration включает разные методики восстановления информации. Чаще всего работа идёт в трёх направлениях:

🔍 Super-resolution — увеличение разрешения. Используется, например, в компьютерных играх, телевизорах или для восстановления старых фильмов. На GitHub загружено больше 1300 репозиториев, посвящённых super-resolution.

🔍 Denoising — устранение шума. Для этого применяют разные методы: от классической свёртки Фурье до современных диффузионных моделей. Главная задача — отличить шум от реального сигнала.

🔍 Deblurring — устранение размытия с изображений и видео, например, из-за движения камеры на смартфоне. Алгоритмы деблюринга пытаются восстановить утерянные детали изображения с помощью предсказания движения по смазу.

💜 Этот пост написал Никита Алутис, ML-разработчик в Точке
Forwarded from DeepSchool
Кто за рулём?! Трансформер

Автономные автомобили — технология, в которой множество задач на уровне как софта, так и железа. В новой статье разбираем одну из ключевых задач — планирование движения, где на первый план выходит архитектура-трансформер.

Вы узнаете:
- какие существуют подходы к проектированию автономных автомобилей, их преимущества и недостатки
- как трансформеры обрабатывают дорожные сцены и предсказывают траектории
- какие ловушки подстерегают ML-планировщики — от «эффекта подражателя» до физической нереализуемости

Читайте статью по ссылке!
Вам нужно разобраться с устройством GPU, если захотите уйти от моделек в апишках.

Раньше я не понимал, что делать, когда «оно такое медленное». Сейчас понимаю, куда копать. Больше всего мне помогла статья, очень ее рекомендую.

Почему про это надо думать?

Инференс LLM отличается от обычных моделей. LLM делает авторегрессию.
То есть инференс проходит токен за токеном. Нельзя предсказать следующий токен, не узнав предыдущий.

Это создает кучу проблем.
Из-за этого вам приходится постоянно в GPU гонять информацию (слои/активации и тд) туда сюда для каждого токена по очереди. Это значит, что чаще всего ваши вычисления ограничены скоростью передачи данных, а не вычислительной мощностью. Вы не используете GPU на полную катушку.

С этим можно бороться. Самый рабочий вариант - батчевание. Вы делаете авторегрессию, но хотя бы для кучи примеров одновременно.

Читайте статью, задавайте вопросы в комментарии или в личку.
Буду выкладывать больше материалов по локальной работе с LLM.
Forwarded from Concise Research (Sergey Kastryulin)
Если ваша генеративная модель училась на всём интернете, рано или поздно вы столкнетесь с тем, что она периодически семплит даркнет 🌚 В LLM проблему решают алайнментом — модель учат не отвечать или уходить от прямого ответа на провокационные темы. Модели генерации картинок не могут не отвечать. Как быть?

1. Unlearning Concepts in Diffusion Model via Concept Domain Correction and Concept Preserving Gradient
GAN снова приходит на помощь. Адверсариальную компоненту можно использовать не только для дистилляции, но и для забывания нежелательных концептов. Учить дискриминатор отличать финальные генерации не удобно из-за Марковости диффузии

Метод:
- Берем уже обученную диффузионку
- Генерим ей некий семпл х
- Зашумляем его прямым процессом до некого t
- Расшумляем, используя промт с проблемными концептами c* и нормальными с
- Учим дискриминатор отличать эти два случая, дотюниваем на этом сигнале диффузионку

2. R.A.C.E. Robust Adversarial Concept Erasure for Secure Text-to-Image Diffusion Model
Идея в том чтобы использовать текстовую инверсию и адверсариальные атаки. Суть в получении текстового эмбединга проблемного концепта и последущем дообучении с GAN лоссом на то чтобы по этому эмбеду получалась не проблемная картинка. Более детальный разбор тут

3. MACE: Mass Concept Erasure in Diffusion Models
Описанные выше методы хорошо работают для удаления нескольких концептов, но могут плохо справляться, когда их количество увеличивается до десятков и сотен. Авторы этой работы замечают, что отвечающие за нежелательные концепты слова часто встречаются вместе. Исправить генерации по этим сочетаниям можно шатанием cross attn

Суть метода в том чтобы по набору промтов с проблемными концептами дообучить матрицу проекций W_k так, чтобы замаппить ключи (keys) аттеншена проблемных концептов или даже категорий концептов в любые не проблемные категории. Помимо этого авторы показывают, что дообучение можно делать с помощью нескольких LoRA, которые далее можно некоторым образом мерджить для удобства работы

4. Set You Straight: Auto-Steering Denoising Trajectories to Sidestep Unwanted Concepts
Другая известная проблема concept erasure — методы портят качество генерации в целом. Авторы этой работы предполагают, что проблема в том что мы учимся менять всю траекторию семплирования из маргинального распределения для проблемных концептов, что может иногда приводить нас в моды с субоптимальным качеством.

Предлагается простой фикс: давайте при больших занчениях шума не мешать модели делать свое дело. Вместо этого, будем тюнить её на то чтобы траектория менялась только в точках t < t’. В качестве fine-tuning objective можно использовать, например, описанный выше MACE
Forwarded from Information Retriever
Хабростатья про масштабирование рексистем и Аргуса.

Написали большую статью по мотивам недавнего выступления на Датафесте. Я постарался добавить побольше новых подробностей, интересной внутренней кухни и всего такого :)

Если вы инженер и хотите сделать в своей рексистеме что-то похожее — это лучший источник информации про Аргуса. Если пользователь (например, Яндекс Музыки / Маркета / Лавки / Алисы), то это возможность получше понять, что стоит за сформированными для вас рекомендациями.

Статья — https://habr.com/ru/companies/yandex/articles/919058/.
Ломая шаблоны: я рискнула сделать 'непрактичный' доклад

Сегодня на CodeFest я рискнула и сделала что-то совсем необычное для себя! Обычно мои доклады — это концентрированная практика: конкретные инструменты, чек-листы, техники. Ведь когда даешь что-то "на руки", участники сразу чувствуют ценность

Но в этот раз я решила пойти против своих привычек — сделать доклад не про "как", а больше смысловой. Признаюсь, было сложно удержаться и не напичкать его инструментами!

О чем же он был?
О том, что мы, руководители, часто обладаем большим набором инструментов, но не всегда понимаем, а к чему, на самом деле, их нужно применять. А мы управляем более сложными вещами:
🩵 Эмоциями (своими и команды)
🩵 Вниманием (расфокусировка — бич современности)
🩵 Ответственностью (не путать с контролем!)
🩵 Обратной связью (искусство давать и принимать)
🩵 Собственным состоянием (иначе — выгорание или потеря лидерства)

За основу взяла модель с годовой управленческой программы Аркадия Цукера — и долго экспериментировала с ней на практике

В качестве метафоры взяла оркестр, поделюсь двумя любимыми видео на эту тему:
1. Итай Талгам: По мановению дирижерской палочки
2. Как сделать из команды слаженный оркестр. Разговор с музыкантом Сергеем Бурлакой

Для тех, кто хочет глубже
Оставила подборку материалов по каждому блоку — теперь можно "собрать" свой набор инструментов
🩷 Эмоции
1. Эмоциональный интеллект, Дэниел Гоулман
2. Эмоциональный интеллект руководителя, Карузо Д, Саловей П
3. Эмоциональный интеллект в бизнесе. Решение сложных лидерских задач, Карузо Д., Л. Рис, Хлевная Е.А.
4. Где твоя волшебная кнопка? Как развивать эмоциональный интеллект, Хлевная Е.А.
5. Психология эмоций. Я знаю, что ты чувствуешь, Экман П
6. Лидерство с сердцем. Эмоциональный интеллект руководителя. Лиза Радина

🩷 Внимание, фокус
1. Главное внимание главным вещам: Жить, любить, учиться и оставить наследие, Стивен Кови, Ребекка Меррилл, Роджер Меррилл
2. Поток. Психология оптимального переживания, Михай Чиксентмихайи
3. Однозадачность: Успевайте больше, фокусируясь только на одном деле, Зак Девора

🩷 Ответственность
1. Принцип Оz. Достижение результатов через персональную и организационную ответственность, Смит Том, Коннорс Роджер
2. Три пути в страну Oz. Как построить культуру настоящей ответственности, Коннорс Роджер, Смит Том

🩷 Обратная связь
1. Радикальная прямота, Ким Скотт
2. Спасибо за отзыв. Как правильно реагировать на обратную связь, Дуглас Стоун, Шейла Хин
3. Kim Scott: How to lead with radical candor, TED Talk

🩷 Собой, своим состоянием
1. Дары несовершенства, Брене Браун
2. Жизнь на полной мощности. Управление энергией — ключ к высокой эффективности, здоровью и счастью, Джим Лоэр, Тони Шварц
3. Психологическое здоровье руководителя: что помогает, а что мешает развитию себя и команды, Анастасия Калашникова
4. Самооценка руководителя. В поисках внутреннего компаса, Анна Бабич
5. Где брать энергию для себя и команды, Ольга Шувалова

Иногда нужно остановить поток "как" и задуматься о том, чем мы на самом деле управляем

Запись доклада будет, но позже
Please open Telegram to view this post
VIEW IN TELEGRAM
Этапы развития тимлида в зависимости от типа управления

В докладе на DUMP через пример роста команды показывала разные типы управления:
➡️ Ручной – управление действиями конкретных сотрудников и коллег
➡️ Системный – выстраивание систем, которые управляют действиями
➡️ Смысловой – создание идеологии, из которой люди выстраивают системы, которые управляют действиями других людей

Когда готовила блок про "смысловой", честно, боялась, что закидают помидорами. Я собиралась сказать: "Хватит ждать, пока собственники или топы дадут вам смыслы и цели! Создавайте их сами на уровне команды!" Думала, услышу: "Оля, это так-то их работа, а не наша!" (с чем я и не спорю) или "Какие ещё смыслы, о чём ты вообще?"

Но знаете что? После доклада ко мне подходили коллег из индустрии и делились своими историями:
— "Блин, Ольга, у меня есть аналитик, которому реально важен смысл работы. Я раньше не придавал этому значения, а теперь понял, как это влияет!"
— "Ольга, я тот самый разработчик, которому смысл сейчас важнее всего. Спасибо, что подняла эту тему!"

Эти разговоры — прям доказательство, что смыслы в работе — не просто "модное словечко", а то, что реально зажигает команду и даёт результат. Но остро он нужен далеко не всем

Доклад уже опубликован, приятного просмотра

https://youtu.be/L0vR878KZpA?si=OIzHE7Mjdl1ySd34

#publicspeaking
Please open Telegram to view this post
VIEW IN TELEGRAM
Be curious, not judgmental. Эффект Теда Лассо: как работает лидерство через доброту 💛

С первого сезона я включаю «Теда Лассо» в дополнительные материалы курса по креативному лидерству. Потому что этот сериал для меня — про новую этику управления.

На примере сериала собрала ниже модель эмпатичного подхода BELIEVE — сохраняйте! И заодно хочу позвать вас запрыгнуть в последний вагон и провести пару месяцев со мной и летней группой нашего курса — подробности тут.

B — Be present (Будь рядом)
Тед показывает, что настоящее лидерство начинается с присутствия, особенно в сложных моментах. Если выбирать слова, это не «я всё решу», а «я рядом, когда ты решаешь»

I believe in hope. I believe in Believe.


E — Empathize (Эмпатия прежде реакции)
Вместо мгновенной оценки важно дать пространство эмоциям, активно проявить эмпатию и задавать вопросы. У Теда это работает чаще, чем любые упрёки. Про то, как проявлять эмпатию в сложных разговорах, писала здесь, а вот тут разбирала требовательность в сочетании с эмпатией для лидеров.

Be curious, not judgmental


L — Listen deeply (Слушай по-настоящему)
Это про навык слушать даже молчание, не перебивать, не торопиться, не вставать в позу «я всё понял». Важность внимания и глубокого слушания Тед как раз объясняет в сцене с игрой в дартс.

I — Invest in people (Вкладывайся в людей, не в KPI)
Тед тренирует игроков как отдельных личностей. Он верит, что развитие человека приводит к результатам команды. Это хорошо видно в ситуациях с Джейми Тарттом, которого он поддерживает в трудные моменты, старается научить работе в команде и взаимопониманию вместо агрессивной конкуренции.

E — Encourage growth (Позволяй расти)
Рост — это не всегда про амбиции. Иногда это про разрешение себе не бежать вперед. Или — как в случае Роя — понять, что ты всё ещё хочешь быть частью игры, но уже не в бутсах. Тед не толкает его на роль тренера. Он просто держит пространство, пока Рой сам выбирает в него войти.

V — Value authenticity (Цени странности и правду)
Настоящий Тед уязвим, странноват, порой нелеп. Зато он не прячется за свою роль и умеет выдерживать неловкости, паузы, давать другим пространство действовать. Это помогает ему завоевывать доверие, хотя честно говоря, сначала такой подход может показаться абсолютной противоположностью сильного лидера.

E — Empower others (Делай сильными других)
Лидерство Теда может выглядеть странным для тех, кто привык к жёсткой вертикальной иерархии. Тед поощряет самостоятельность и лидерство в команде, позволяя игрокам принимать решения и брать на себя ответственность. Это укрепляет уверенность и развивает лидерские качества у каждого. Он действует схоже с моделями Лидер бок о бок (Leader Beside) и Лидер позади (Leader Behide), которые мы, кстати, также разбираем на курсе. Суть моделей в сотрудничестве, в том, чтобы помочь каждому поверить в себя. Про свой опыт такого ко-лидерства тоже писала здесь.

Тед знает, когда уйти в тень. И именно этим становится незаменимым.


В общем, если еще не смотрели «Теда Лассо» — рекомендую. Ради блестящих метафор и важного вопроса к себе — как быть рядом, если вдохновения нет ни у вас, ни у команды?

PS: На фото я с Женей Давыдовым в офисе Setters на встрече со студентами. За нами — пасхалка для тех, кто в теме.
Субботнее нетрадиционное.

Давно про книги не писал, и в частности всё никак не напишу о двух крутых книгах, которые прочитал, "Einstein's Mirror" и "The New Quantum Universe" про теорию относительности и квантовый мир соответственно.

Обе от одних и тех же авторов, Tony Hey и Patrick Walters, дополняют друг друга. Изначально была первая версия "The Quantum Universe", потом появилась книга компаньон про теорию относительности, затем вышла новая версия про квантовый мир.

Так вот, что в них прекрасно, это правильный микс сути и деталей различных открытий, интуиции за всем этим, и исторического контекста, включая что было неверно и от каких идей отказались и почему.

Книги скорее научно популярные, но с формулами. Тогда ещё, видимо, не открыли идею, что каждая формула уменьшает количество покупателей книги. И слава богу. Без формул плохо, но с одними формулами без интуиции за ними тоже хреново, таких книг я видел достаточно.

Первая половина Einstein's Mirror про специальную теорию относительности, вторая про гравитацию и общую теорию относительности.

Я наконец понял более-менее, что за время тогда было, какие идеи господствовали и как Эйнштейн пришёл к своим, в чём была суть мысленного эксперимента с зеркалом, и так далее. Я специальную теорию относительности до сих пор интуитивно не до конца понимаю, всё-таки странно это, что независимо от скоростей движущихся объектов, скорость света всегда константна, непонятно почему оно так.

Есть большая глава про атомную и водородную бомбу, Ричард Родес (которого любит товарищ Дарио Амодеи) в миниатюре.

Квантовая вселенная понятно про квантовый мир и какую-то базовую интуицию за ним, где это возможно. С интуицией тут конечно сложнее, хз почему оно именно так, но всё же.

Я наконец понял суть неравенства Белла, и наверное немного получше стал понимать про электронные оболочки. А также про сверхпроводимость, конденсат Бозе-Эйнштейна, сверхтекучий гелий, ультрахолодные атомы и охлаждение с помощью лазеров и что-то ещё, там много разных тем. Про туннелирование и раньше вроде неплохо знал, спасибо туннельным диодам :) Про запутанность, кстати, не то чтобы много написано.

В этой книге есть свои главы про ядро и ядерные реакции. Есть про устройство звёзд. Что для меня было открытием, так это про термояд. Я привык, что водородную бомбу называют маленьким Солнцем, думал там и реакция та же идёт. А нифига. В термоядерной бомбе реагируют дейтерий с тритием, тут чисто реакции сильного взаимодействия. А в звёздах не так. В Солнце играют и сильное, и слабое взаимодействия, протон-протонная реакция не идёт без квантового туннелирования. Это меняет динамику всего процесса, и кажется это самое медленное звено (пишут, что каждый отдельный протон внутри Солнца должен претерпеть в среднем более миллиарда лет столкновений прежде чем он образует дейтерий -- на фоне времени жизни Солнца, ему сейчас 4.6 миллиарда, огромное число). Когда два протона слились во временное ядро и один из них успел превратиться в нейтрон, так что они образовали дейтерий, всё идёт быстрее, тут уже только сильное взаимодействие (и электромагнитное) -- протон с дейтерием дают гелий-3, два гелия-3 дают гелий-4 и ещё пару протонов. А в более тяжёлых и горячих звёздах другой процесс -- углеродный цикл, тоже не требующий слабого взаимодействия.

В общем много ещё всего интересного, я и половины тем не перечислил. Очень рекомендую. Может где-то что-то переврал, прастити, я не настоящий сварщик.

В этой паре книг не хватает книги про информационный мир. Но с другой стороны, один из авторов (Hey) написал книгу Feynman and Computation, лежит в очереди.

#books