Data Science / Machine Learning / AI / Big Data (VK)
COIN: COmpression with Implicit Neural representations
Dupont et al.: https://arxiv.org/abs/2103.03123
#ArtificialIntelligence #DeepLearning #MachineLearning
COIN: COmpression with Implicit Neural representations
Dupont et al.: https://arxiv.org/abs/2103.03123
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Frozen in Time: A Joint Video and Image Encoder for End-to-End Retrieval
Bain et al.: https://arxiv.org/abs/2104.00650
#ArtificialIntelligence #DeepLearning #MachineLearning
Frozen in Time: A Joint Video and Image Encoder for End-to-End Retrieval
Bain et al.: https://arxiv.org/abs/2104.00650
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Dodrio: Exploring Transformer Models with Interactive Visualization
Wang et al.: https://arxiv.org/abs/2103.14625
#ArtificialIntelligence #HumanComputerInteraction #MachineLearning
Dodrio: Exploring Transformer Models with Interactive Visualization
Wang et al.: https://arxiv.org/abs/2103.14625
#ArtificialIntelligence #HumanComputerInteraction #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
EfficientNetV2: Smaller Models and Faster Training
Mingxing Tan, Quoc V. Le: https://arxiv.org/abs/2104.00298
#ArtificialIntelligence #DeepLearning #MachineLearning
EfficientNetV2: Smaller Models and Faster Training
Mingxing Tan, Quoc V. Le: https://arxiv.org/abs/2104.00298
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Towards General Purpose Vision Systems
Gupta et al.: https://arxiv.org/abs/2104.00743
#ArtificialIntelligence #DeepLearning #MachineLearning
Towards General Purpose Vision Systems
Gupta et al.: https://arxiv.org/abs/2104.00743
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Deep Learning of Conjugate Mappings
Bramburger et al.: https://arxiv.org/abs/2104.01874
#DeepLearning #DynamicalSystems #MachineLearning
Deep Learning of Conjugate Mappings
Bramburger et al.: https://arxiv.org/abs/2104.01874
#DeepLearning #DynamicalSystems #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Task-Agnostic Morphology Evolution
Hejna III et al.: https://arxiv.org/abs/2102.13100
#MachineLearning #ArtificialIntelligence #Robotics
Task-Agnostic Morphology Evolution
Hejna III et al.: https://arxiv.org/abs/2102.13100
#MachineLearning #ArtificialIntelligence #Robotics
Data Science / Machine Learning / AI / Big Data (VK)
Modern Hopfield Networks for Few- and Zero-Shot Reaction Prediction
Seidl et al.: https://arxiv.org/abs/2104.03279
#MachineLearning #ArtificialIntelligence #Biomolecules
Modern Hopfield Networks for Few- and Zero-Shot Reaction Prediction
Seidl et al.: https://arxiv.org/abs/2104.03279
#MachineLearning #ArtificialIntelligence #Biomolecules
Data Science / Machine Learning / AI / Big Data (VK)
GrASP: A Library for Extracting and Exploring Human-Interpretable Textual Patterns
Lertvittayakumjorn et al.: https://arxiv.org/abs/2104.03958
#ArtificialIntelligence #DeepLearning #MachineLearning
GrASP: A Library for Extracting and Exploring Human-Interpretable Textual Patterns
Lertvittayakumjorn et al.: https://arxiv.org/abs/2104.03958
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Representing Partial Programs with Blended Abstract Semantics
Nye et al.: https://arxiv.org/abs/2012.12964
#ProgrammingLanguages #ArtificialIntelligence #MachineLearning
Representing Partial Programs with Blended Abstract Semantics
Nye et al.: https://arxiv.org/abs/2012.12964
#ProgrammingLanguages #ArtificialIntelligence #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
PyTorch Geometric Temporal: Spatiotemporal Signal Processing with Neural Machine Learning Models
Rozemberczki et al.: https://arxiv.org/abs/2104.07788
#MachineLearning #ArtificialIntelligence #PyTorch
PyTorch Geometric Temporal: Spatiotemporal Signal Processing with Neural Machine Learning Models
Rozemberczki et al.: https://arxiv.org/abs/2104.07788
#MachineLearning #ArtificialIntelligence #PyTorch
Data Science / Machine Learning / AI / Big Data (VK)
CS224W: Machine Learning with Graphs
Stanford / Winter 2021 [slides] pdf
https://web.stanford.edu/class/cs224w/
#machinelearning #graphs
CS224W: Machine Learning with Graphs
Stanford / Winter 2021 [slides] pdf
https://web.stanford.edu/class/cs224w/
#machinelearning #graphs
Data Science / Machine Learning / AI / Big Data (VK)
Zero-Shot Detection via Vision and Language Knowledge Distillation
Gu et al.: https://arxiv.org/abs/2104.13921
#ArtificialIntelligence #DeepLearning #MachineLearning
Zero-Shot Detection via Vision and Language Knowledge Distillation
Gu et al.: https://arxiv.org/abs/2104.13921
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
Total Relighting: Learning to Relight Portraits for Background Replacement
Pandey et al.: https://augmentedperception.github.io/total_relighting/
#ArtificialIntelligence #DeepLearning #MachineLearning
Total Relighting: Learning to Relight Portraits for Background Replacement
Pandey et al.: https://augmentedperception.github.io/total_relighting/
#ArtificialIntelligence #DeepLearning #MachineLearning
Data Science / Machine Learning / AI / Big Data (VK)
baller2vec++: A Look-Ahead Multi-Entity Transformer For Modeling Coordinated Agents
Michael A. Alcorn, Anh Nguyen: https://arxiv.org/abs/2104.11980
#ArtificialIntelligence #MachineLearning #MultiagentSystems
baller2vec++: A Look-Ahead Multi-Entity Transformer For Modeling Coordinated Agents
Michael A. Alcorn, Anh Nguyen: https://arxiv.org/abs/2104.11980
#ArtificialIntelligence #MachineLearning #MultiagentSystems
Data Science / Machine Learning / AI / Big Data (VK)
The 12 types of ML papers.
#MachineLearning #ML #DataScience
The 12 types of ML papers.
#MachineLearning #ML #DataScience
Forwarded from Machinelearning
Эти нейронные клеточные автоматы (Neural Cellular Automata) способны самособираться в заданные формы и даже восстанавливаться после повреждений.
В *Quanta Magazine* рассказали о том, как учёные научились обучать искусственные "клетки" собираться в заданные формы. Это похоже на игру «Жизнь» (*Game of Life*), но наоборот.
🧩 Что такое Game of Life?
Это простая компьютерная модель: есть сетка из клеток, у каждой клетки всего два состояния — «жива» или «мертва». Жизнь клетки зависит от соседей (например, если вокруг слишком много соседей, клетка умирает).
Обычно мы задаём правила и просто смотрим, что получится.
А теперь учёные сделали наоборот: сначала задаём цель (например, фигуру), а потом подбираем правила так, чтобы клетки сами в неё собрались.
⚙️ Что изменили учёные?
1. Непрерывные состояния - клетка не просто «вкл/выкл», а может быть наполовину активна. Это как лампочка с плавным регулятором яркости.
2. Скрытые переменные - у каждой клетки есть «внутренние параметры», которые влияют на её поведение. Представь, что у клетки есть «настроение» или «память», которое не видно исследователю напрямую.
3. Асинхронное обновление — клетки меняются в случайное время, а не все сразу. Это ближе к реальной жизни, где всё развивается не идеально синхронно.
💡 Зачем это нужно?
- Восстановление после повреждений: если часть фигуры «сломать», клетки могут достроить её заново.
- Децентрализация: нет главного управляющего - каждая клетка действует локально, но вместе они формируют систему.
- Устойчивость к шуму: клетки учатся справляться с хаосом и случайностями, а не просто повторяют выученный рисунок.
- Пока это работает для картинок и форм, но не для сложных живых организмов.
- Чтобы система умела «регенерировать», её нужно специально тренировать.
- Перенести эту идею в настоящие биологические клетки или роботов сложно — там много физических ограничений.
- Медицина - модели самовосстановления тканей.
- Робототехника - рой роботов, которые без команды сверху сами собираются в нужную конструкцию.
- Материалы будущего — «умные» кирпичики или детали, которые сами подстраиваются под окружение.
- Новые вычислительные системы - компьютеры без центрального процессора, где решения рождаются распределённо.
Учёные показали, что нейронные клеточные автоматы можно рассматривать как модель эволюции: геном не задаёт форму напрямую, а запускает процесс её построения, что делает системы гибкими и адаптивными.
Главное отличие от природы в том, что эволюция не имеет цели, а автоматы обучают под задачу.
Эти модели предлагают новый тип вычислений: каждая клетка взаимодействует только с соседями, что делает архитектуру распределённой и потенциально энергоэффективной.
Уже есть впечатляющие результаты — от распознавания цифр и умножения матриц до решения задач вроде IQ-тестов и управления роями роботов, которые начинают вести себя как единый организм.
В итоге работы Мордвинцева соединяют биологию, компьютеры и робототехнику, возвращая к идее, что жизнь и вычисления — две стороны одного процесса.
@ai_machinelearning_big_data
#evolution #machinelearning #neuralnetworks #biology
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#ai #machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM