Пока неизвестно, будет ли VideoGigaGAN доступен простым пользователям в Creative Cloud или Adobe планирует иначе использовать новую модель.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍9🔥4🥰1
В этой статье мы поговорим о том, как делать кластерный анализ и строить тепловые карты экспрессии в R.
Рассмотрим такие понятия как:
• Многомерные данные
• Облако точек в многомерном пространстве
• Коэффициенты сходства-различия
• Евклидово расстояние
• Коэффициент Жаккара
• Иерархическая кластеризация
• Алгоритмы иерархической кластеризации на основании расстояний
• Метод ближайшего соседа
• Метод отдаленного соседа
• Метод невзвешенного попарного среднего
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤4🥰2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤5🔥2
Позволяет:
• интегрировать и синхронизировать данные из сторонних источников
• создавать конвейеры обработки данных в реальном времени и в пакетном режиме, используя Python, SQL и R
• производить запуск, мониторинг и оркестровку тысяч конвейеров
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤4🔥4❤🔥1🤔1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😱16👍12😁6🤔5❤3🔥2
Помогает обнаруживать проблемы в моделях.
Сканирует LLM, позволяет определить производительность, фиксирует проблемы безопасности.
Установка:
pip install "giskard[llm]" -U
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤4🔥4❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
👨🎓 100 лекций по математике от Оксфорда
Оксфорд публикует лекции по математике, чтобы дать представление об опыте студентов и о том, как они преподают математику в Оксфорде.
В этом плейлисте собраны лекции из различных курсов за все студенческие годы (включая целые курсы).
За всеми лекциями следуют учебные занятия, на которых студенты встречаются со своим преподавателем и решают задачи.
Примерно 80 часов отборной математики.
• Плейлист
@data_analysis_ml
Оксфорд публикует лекции по математике, чтобы дать представление об опыте студентов и о том, как они преподают математику в Оксфорде.
В этом плейлисте собраны лекции из различных курсов за все студенческие годы (включая целые курсы).
За всеми лекциями следуют учебные занятия, на которых студенты встречаются со своим преподавателем и решают задачи.
Примерно 80 часов отборной математики.
• Плейлист
@data_analysis_ml
👍26❤6🔥5
Forwarded from Machine learning Interview
▪Смотреть
▪Данные
▪Ноутбук
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥4❤3❤🔥2
Созданный на основе Perplexity AI, этот движок с открытым исходным кодом не просто ищет в интернете, но и понимает ваши вопросы.
Perplexica использует передовые ML-алгоритмы для уточнения результатов и предоставляет четкие ответы со ссылками на источники.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤6👍5
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Open AI только что добавили новую функцию памяти в Chatgpt.
Память теперь доступна всем пользователям ChatGPT Plus.
Пользоваться памятью очень просто: просто запустите новый чат и напишите ChatGPT все, что вы хотели бы, чтобы он запомнил.
Функция памяти ChatGPT позволяет запоминать нужные вам детали, чтобы в будущем сделать общение актуальным и персонализированны.
ChatGPT автоматически сохраняет такие детали, как ваши личные предпочтения, но вы также можете попросить ChatGPT запомнить конкретную информацию, сказав:
"Запомнить это" или "Сохрани это в своей памяти".
Примечание:
1. Эта функция доступна только в GPT-4, но не в версии 3.5.
2. Если вы хотите удалить что-либо из памяти, вы можете сделать это через настройки управления памятью
3.Похоже, что это замедляет работу GPT-4, потому что он пытается получить доступ к памяти, а затем отвечает.
Память можно включить или отключить в настройках.
@data_analysis_ml
Память теперь доступна всем пользователям ChatGPT Plus.
Пользоваться памятью очень просто: просто запустите новый чат и напишите ChatGPT все, что вы хотели бы, чтобы он запомнил.
Функция памяти ChatGPT позволяет запоминать нужные вам детали, чтобы в будущем сделать общение актуальным и персонализированны.
ChatGPT автоматически сохраняет такие детали, как ваши личные предпочтения, но вы также можете попросить ChatGPT запомнить конкретную информацию, сказав:
"Запомнить это" или "Сохрани это в своей памяти".
Примечание:
1. Эта функция доступна только в GPT-4, но не в версии 3.5.
2. Если вы хотите удалить что-либо из памяти, вы можете сделать это через настройки управления памятью
3.Похоже, что это замедляет работу GPT-4, потому что он пытается получить доступ к памяти, а затем отвечает.
Память можно включить или отключить в настройках.
@data_analysis_ml
👍12🔥7❤3
И вот здесь отлично пригодится Cognita.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤4🔥3
🔥Common Voice 17 теперь на hf.
Common Voice 17 - датасет С 31 175 часами аудиозаписей (и транскрипций) на 124 языках 🎶
Большинство аудио в датасете содержат демографические метаданные, такие как возраст, пол и акцент, которые могут помочь повысить точность систем распознавания речи.
Хотите попробовать?
https://huggingface.co/datasets/mozilla-foundation/common_voice_17_0
@data_analysis_ml
Common Voice 17 - датасет С 31 175 часами аудиозаписей (и транскрипций) на 124 языках 🎶
Большинство аудио в датасете содержат демографические метаданные, такие как возраст, пол и акцент, которые могут помочь повысить точность систем распознавания речи.
Хотите попробовать?
from datasets import load_dataset
cv17 = load_dataset("mozilla-foundation/common_voice_17_0",
"hi",
split="test",
streaming=True)
https://huggingface.co/datasets/mozilla-foundation/common_voice_17_0
@data_analysis_ml
👍15🔥6❤5
Отличная статья для глубокого понимания, как трансформеры работают с контекстом.
Детально описаны механизмы, благодаря которым это вообще возможно, в том числе и механизм внимания.
Выдвигается гипотеза, что обучение трансформеров в контексте возникает благодаря неявной реализации градиентного спуска по функции потерь, построенной на основе данных, взятых из контекста.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥4❤3
В этом репозитории содержатся разные реализации анализа текста в PyTorch:
— с использованием "мешка слов" (bag of words)
— с помощью рекурретной нейросети (RNN)
— посредством свёртной нейросети (CNN)
— с помощью модных трансформеров
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20❤8🔥4