Минская правда|MLYN.by
16.1K subscribers
77.9K photos
28.2K videos
8 files
52.3K links
🌶 Портал информационного агентства "Минская правда".

https://lnk.bio/mlyn.by

Есть интересные новости? Присылайте их в бот! @mlyn_bot
Download Telegram
😧 Ученые нашли связь между длиной пальцев и алкоголизмом

Результаты исследования опубликованы в журнале Human Biology.

Так, у любителей выпить безымянный палец оказался длиннее указательного. А причина этого — высокий уровень пренатального тестостерона по отношению к эстрогену.

Специалисты проанализировали данные 258 человек: 169 женщин и 89 мужчин.

#наука

🗞 Подпишись — Минская правда|MLYN.by
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Как на самом деле были построены египетские пирамиды? Кто стоял за созданием этих грандиозных сооружений — обычные люди или что-то (или кто-то) из другой реальности?

Некоторые считают, что без вымершей расы великанов там люди никак не справились бы. А еще и инопланетяне руку приложили в возведении пирамид. А кто-то так и вообще искренне верят в то, что эти архитектурные памятники построил сам дьявол.

📹 Ответы ищите в нашем видео

#наука

🗞 Подпишись — Минская правда|MLYN.by
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Могли ли инопланетяне или даже магия быть связаны со строительством пирамид? Или все дело в уникальных древних технологиях?

Некоторые считают, что без вымершей расы великанов там люди никак не справились бы. А еще и инопланетяне руку приложили в возведении пирамид. А кто-то так и вообще искренне верят в то, что эти архитектурные памятники построил сам дьявол.

В этом видео мы пробуем разобраться в одной из самых великих тайн человечества

📹 Ответы ищите в нашем видео

#наука

🗞 Подпишись — Минская правда|MLYN.by
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 Google представила квантовый чип Willow, вычисления в котором происходят «в нескольких параллельных вселенных»

С задачами, на которые суперкомпьютерам потребовалось бы 10 000 000 000 000 000 000 000 000 лет (больше возраста Вселенной), чип справляется за пять минут.

В будущем его планируют использовать для создания новых технологий, лекарств и альтернативных источников энергии, а также обучения ИИ.

#технологии #наука

🗞 Подпишись — Минская правда|MLYN.by
Please open Telegram to view this post
VIEW IN TELEGRAM
👨‍🚀 Ученые: Луна возникла практически одновременно с Землей

Американские и европейские планетологи пришли к выводу, что Луна образовалась почти одновременно с Землей, около 4,5 миллиарда лет назад.

По данным ученых, расчеты указывают на то, что частое присутствие в лунных породах образцов кристаллов цирконов возрастом в 4,35 млрд лет является индикатором того, что недра ранней Луны были почти полностью переплавлены в результате гравитационных взаимодействий с Землей и Солнцем.

➡️ Это можно объяснить только в том случае, если Луна возникла максимально рано, около 4,5 млрд лет назад

#наука

🗞 Подпишись — Минская правда|MLYN.by
Please open Telegram to view this post
VIEW IN TELEGRAM
💬 Китайцы представили открытую ИИ-модель DeepSeek V3 — она быстрее GPT-4o и её обучение обошлось намного дешевле

Китайская компания DeepSeek представила мощную открытую модель искусственного интеллекта DeepSeek V3 — лицензия позволяет её беспрепятственно скачивать, изменять и использовать в большинстве проектов, включая коммерческие.

DeepSeek V3 справляется со множеством связанных с обработкой текста задач, в том числе написание статей, электронных писем, перевод и генерация программного кода. Модель превосходит большинство открытых и закрытых аналогов, показали результаты проведённого разработчиком тестирования. Так, в связанных с программированием задачах она оказалась сильнее, чем Meta Llama 3.1 405B, OpenAI GPT-4o и Alibaba Qwen 2.5 72B; DeepSeek V3 также проявила себя лучше конкурентов в тесте Aider Polyglot, проверяющем, среди прочего, её способность генерировать код для существующих проектов.

Модель была обучена на наборе данных в 14,8 трлн проектов; будучи развёрнутой на платформе Hugging Face, DeepSeek V3 показала размер в 685 млрд параметров — примерно в 1,6 раза больше, чем Llama 3.1 405B, у которой, как можно догадаться, 405 млрд параметров. Как правило, число параметров, то есть внутренних переменных, которые используются моделями для прогнозирования ответов и принятия решений, коррелирует с навыками моделей: чем больше параметров, тем она способнее. Но для запуска таких систем ИИ требуется больше вычислительных ресурсов.

DeepSeek V3 была обучена за два месяца в центре обработки данных на ускорителях Nvidia H800 — сейчас их поставки в Китай запрещены американскими санкциями. Стоимость обучения модели, утверждает разработчик, составила $5,5 млн, что значительно ниже расходов OpenAI на те же цели. При этом DeepSeek V3 политически выверена — она отказывается отвечать на вопросы, которые официальный Пекин считает щекотливыми.

#наука #технологии #ИИ

🗞 Подпишись — Минская правда|MLYN.by
Please open Telegram to view this post
VIEW IN TELEGRAM