Как делить пользователей на группы в АБ-тестах: ошибки и рекомендации
В предыдущих статьях https://habr.com/ru/articles/787098/, https://habr.com/ru/articles/795251/ и https://habr.com/ru/articles/781060/ мы рассмотрели основные подводные камни автоматизации и анализу АБ тестов, привели подробный обзор статей по этой теме, а так же рассмотрели типичные задачи аналитика данных. В контексте АБ-тестов одним из ключевых аспектов является механизм разделения на группы, который в терминологии специалистов часто называется сплитовалкой.
Может показаться, что задача элементарная - сгенерировать случайное целое число каждому пользователю с вероятностью 1/n, где n - число групп в АБ тесте. Но на практике, особенно для высоконагруженных сервисов, таких как Ozon, возникает множество архитектурных и платформенных сложностей. В данной статье мы сконцентрируемся на основных принципах деления на группы, принятых в индустрии.
Читать: https://habr.com/ru/articles/800809/
@big_data_analysis
В предыдущих статьях https://habr.com/ru/articles/787098/, https://habr.com/ru/articles/795251/ и https://habr.com/ru/articles/781060/ мы рассмотрели основные подводные камни автоматизации и анализу АБ тестов, привели подробный обзор статей по этой теме, а так же рассмотрели типичные задачи аналитика данных. В контексте АБ-тестов одним из ключевых аспектов является механизм разделения на группы, который в терминологии специалистов часто называется сплитовалкой.
Может показаться, что задача элементарная - сгенерировать случайное целое число каждому пользователю с вероятностью 1/n, где n - число групп в АБ тесте. Но на практике, особенно для высоконагруженных сервисов, таких как Ozon, возникает множество архитектурных и платформенных сложностей. В данной статье мы сконцентрируемся на основных принципах деления на группы, принятых в индустрии.
Читать: https://habr.com/ru/articles/800809/
@big_data_analysis
Материалы для подготовки к собеседованию на позицию Data Scientist. Часть 2: Классическое машинное обучение
Привет! Меня зовут Артем. Я работаю Data Scientist'ом в компании МегаФон (платформа для безопасной монетизации данных OneFactor). Мы строим скоринговые (credit scoring), лидогенерационные (lead generation) и антифрод (anti-fraud) модели на телеком данных, а также делаем гео-аналитику (geoanalytics).
В предыдущей статье я поделился материалами для подготовки к одному из самых волнительных (для многих) этапов - Live Coding.
В этой статье рассмотрим материалы, которые можно использовать для подготовки к секции по классическому машинному обучению.
Читать: https://habr.com/ru/companies/megafon/articles/800919/
@big_data_analysis
Привет! Меня зовут Артем. Я работаю Data Scientist'ом в компании МегаФон (платформа для безопасной монетизации данных OneFactor). Мы строим скоринговые (credit scoring), лидогенерационные (lead generation) и антифрод (anti-fraud) модели на телеком данных, а также делаем гео-аналитику (geoanalytics).
В предыдущей статье я поделился материалами для подготовки к одному из самых волнительных (для многих) этапов - Live Coding.
В этой статье рассмотрим материалы, которые можно использовать для подготовки к секции по классическому машинному обучению.
Читать: https://habr.com/ru/companies/megafon/articles/800919/
@big_data_analysis
Два подхода моделирования исторических данных
Перевод статьи с Medium
В статье обсуждаются моделирование данных для хранения исторических данных, включая использование временных таблиц и исторических таблиц.
Временные таблицы добавляют две даты к каждой записи для определения периода актуальности данных, в то время как исторические таблицы сохраняют только последние записи в основной таблице, перемещая старые записи в отдельную историческую таблицу.
Это обеспечивает более четкий аудит изменений и улучшает производительность запросов к историческим данным, но требует дополнительного хранения и обслуживания.
Читать: https://habr.com/ru/articles/801067/
@big_data_analysis
Перевод статьи с Medium
В статье обсуждаются моделирование данных для хранения исторических данных, включая использование временных таблиц и исторических таблиц.
Временные таблицы добавляют две даты к каждой записи для определения периода актуальности данных, в то время как исторические таблицы сохраняют только последние записи в основной таблице, перемещая старые записи в отдельную историческую таблицу.
Это обеспечивает более четкий аудит изменений и улучшает производительность запросов к историческим данным, но требует дополнительного хранения и обслуживания.
Читать: https://habr.com/ru/articles/801067/
@big_data_analysis
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM Analytics
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM Analytics.
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-hcm-analytics-announcements
@big_data_analysis
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM Analytics.
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-hcm-analytics-announcements
@big_data_analysis
Oracle
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM
👍2
EBS managed connector for Oracle Fusion Data Intelligence
Oracle Fusion Data Intelligence (FDI) has introduced multiple connectors to leverage the data pipeline infrastructure to extract data from external sources. This blog describes a use case to configure the Oracle EBS (E-Business Suite) connector to connect to EBS and utilize the FDIP Data Augmentation feature to extract transaction data from EBS into FDI's ADW (Autonomous Data Warehouse).
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-data-intelligence-platform-ebs-managed-connector
@big_data_analysis
Oracle Fusion Data Intelligence (FDI) has introduced multiple connectors to leverage the data pipeline infrastructure to extract data from external sources. This blog describes a use case to configure the Oracle EBS (E-Business Suite) connector to connect to EBS and utilize the FDIP Data Augmentation feature to extract transaction data from EBS into FDI's ADW (Autonomous Data Warehouse).
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-data-intelligence-platform-ebs-managed-connector
@big_data_analysis
Oracle
Oracle Fusion Data Intelligence Platform: EBS Managed Connector
Oracle Fusion Data Intelligence Platform has introduced multiple connectors to leverage the data pipeline infrastructure to extract data from external sources. This blog describes the use-case to configure EBS connector to connect to EBS and utilize FDIP…
👍1
Integration of Oracle Analytics Cloud Semantic Modeler with Git
Read this blog to understand how you can use GitHub repositories with Oracle Analytics to enable concurrent semantic model development.
Read: https://blogs.oracle.com/analytics/post/oac-semantic-modeller-github
@big_data_analysis
Read this blog to understand how you can use GitHub repositories with Oracle Analytics to enable concurrent semantic model development.
Read: https://blogs.oracle.com/analytics/post/oac-semantic-modeller-github
@big_data_analysis
Oracle
Integration of Oracle Analytics Cloud Semantic Modeller with GitHub Repository
Oracle Analytics Cloud supports for integration of the GIT repository with the semantic model. Using a Git repository provides version control and multiple-user development of semantic models. You can use Git repositories with Oracle Analytics to enable concurrent…
Дом, милый дом: нюансы работы с ClickHouse. Часть 1
Всем привет, меня зовут Пётр, я инженер компании Nixys. На современных проектах используется огромное разнообразие баз данных: реляционные, ключ-значение, документоориентированные. Особое место среди них занимают колоночные базы данных, ярким представителем которых является ClickHouse. Это мощный инструмент, который способен обрабатывать миллиарды строк в секунду при минимальном времени ответа. Однако, для максимальной эффективности ClickHouse необходимо понимать ряд фундаментальных моментов для того, чтобы использовать его по назначению. В этой серии статей мы разберем особенности работы ClickHouse, которые помогут в выжимании максимума из этой базы. И сегодня начнём с фундаментальных теоретических моментов, чтобы составить максимально полное общее впечатление, которое поможет нам в дальнейшем.
Читать: https://habr.com/ru/companies/nixys/articles/801029/
@big_data_analysis
Всем привет, меня зовут Пётр, я инженер компании Nixys. На современных проектах используется огромное разнообразие баз данных: реляционные, ключ-значение, документоориентированные. Особое место среди них занимают колоночные базы данных, ярким представителем которых является ClickHouse. Это мощный инструмент, который способен обрабатывать миллиарды строк в секунду при минимальном времени ответа. Однако, для максимальной эффективности ClickHouse необходимо понимать ряд фундаментальных моментов для того, чтобы использовать его по назначению. В этой серии статей мы разберем особенности работы ClickHouse, которые помогут в выжимании максимума из этой базы. И сегодня начнём с фундаментальных теоретических моментов, чтобы составить максимально полное общее впечатление, которое поможет нам в дальнейшем.
Читать: https://habr.com/ru/companies/nixys/articles/801029/
@big_data_analysis
Современные тенденции и проблемы управления данными на рынке РФ: вызовы 2024 года
В эпоху данных и активной цифровизации вопросы эффективного управления данными становятся все более актуальными. От того, насколько эффективно компания управляет своими данными, зависит эффективность принятия управленческих решений, что влияет на выручку компании и чистую прибыль.
Вопросы управления данными включают задачи эффективного хранения и обработки данных (КХД, озера данных, ETL & ELT) в облаках и On-Premise, настройки интеграционных потоков (транспорт) для анализа в режиме реального времени и не только, вопросы предоставления данных во внешние системы и BI, процессы качества данных и каталогизации, безопасность данных, решения на базе расширенной аналитики и ИИ.
Александр Сулейкин, кандидат технических наук, генеральный директор и архитектор Big Data систем компании “ДЮК Технологии” дает прогноз на предстоящий год: какие технологии управления данными будут развиваться, с какими проблемами сталкивается бизнес и каких технологий не хватает для полноценного импортозамещения.
Читать: https://habr.com/ru/articles/801599/
@big_data_analysis
В эпоху данных и активной цифровизации вопросы эффективного управления данными становятся все более актуальными. От того, насколько эффективно компания управляет своими данными, зависит эффективность принятия управленческих решений, что влияет на выручку компании и чистую прибыль.
Вопросы управления данными включают задачи эффективного хранения и обработки данных (КХД, озера данных, ETL & ELT) в облаках и On-Premise, настройки интеграционных потоков (транспорт) для анализа в режиме реального времени и не только, вопросы предоставления данных во внешние системы и BI, процессы качества данных и каталогизации, безопасность данных, решения на базе расширенной аналитики и ИИ.
Александр Сулейкин, кандидат технических наук, генеральный директор и архитектор Big Data систем компании “ДЮК Технологии” дает прогноз на предстоящий год: какие технологии управления данными будут развиваться, с какими проблемами сталкивается бизнес и каких технологий не хватает для полноценного импортозамещения.
Читать: https://habr.com/ru/articles/801599/
@big_data_analysis
Как провести unit-тестирование Flink-операторов: TestHarness
Привет всем, на связи снова Александр Бобряков, техлид в команде МТС Аналитики. Продолжаем цикл статей про фреймворк Apache Flink.
Напомню, в предыдущих частях я рассказывал про построение пайплайна Kafka-to-Kafka с промежуточным разделением потока и дедупликацией событий. Также в предыдущей статье я рассказал, как можно динамически определить выходной Kafka-топик для каждого отправляемого события.
Начиная с этой статьи начнём разбирать, как тестировать всё наше приложение Flink + Spring. Многие описанные подходы вполне применимы и в любом другом обычном Spring-приложении, поэтому, надеюсь, вы найдёте для себя что-то новое.
В данной статье мы рассмотрим, как протестировать stateless- и stateful-операторы Flink с помощью абстракций TestHarness.
Читать: https://habr.com/ru/companies/ru_mts/articles/801693/
@big_data_analysis
Привет всем, на связи снова Александр Бобряков, техлид в команде МТС Аналитики. Продолжаем цикл статей про фреймворк Apache Flink.
Напомню, в предыдущих частях я рассказывал про построение пайплайна Kafka-to-Kafka с промежуточным разделением потока и дедупликацией событий. Также в предыдущей статье я рассказал, как можно динамически определить выходной Kafka-топик для каждого отправляемого события.
Начиная с этой статьи начнём разбирать, как тестировать всё наше приложение Flink + Spring. Многие описанные подходы вполне применимы и в любом другом обычном Spring-приложении, поэтому, надеюсь, вы найдёте для себя что-то новое.
В данной статье мы рассмотрим, как протестировать stateless- и stateful-операторы Flink с помощью абстракций TestHarness.
Читать: https://habr.com/ru/companies/ru_mts/articles/801693/
@big_data_analysis
Калькуляция затрат для сбора факта Бюджета доходов и расходов (БДР) с помощью Power Query
Если в компании не внедрена автоматизация управленческого учета (ERP, 1С УП, БИТ ФИНАНС и т.д.), то единственным источником для калькуляции затрат остается бухгалтерский учет (далее – БУ), и, в подавляющем большинстве случаев, это 1С БУХ. Для целей калькуляции доходов и расходов в рамках управленческого учета (далее – УУ) полный перенос информации из БУ не всегда корректен. Так, есть ряд расходов и доходов, которые необходимо исключить или наоборот добавить (технические операции) в УУ; иногда бывает необходимо добавить дополнительную аналитику и доп. реквизиты.
В любом случае процесс переноса данных из БУ в УУ всегда трудоемок, а в классическом случае, — когда экономист формирует бюджеты из оборотно-сальдовых ведомостей — еще и крайне негибок, так как любое изменение данных в БУ влечет за собой повторный сбор данных.
В данной статья мы предлагаем применить инструмент Power Query (далее – PQ) для сбора фактических данных и для его частичной автоматизации. Конечно, роль экономиста, пресловутый человеческий фактор, останется превалирующей, но сам процесс будет занимать гораздо меньше времени. Точность учета при этом вырастет.
Т.к. в большинстве случаев экономисты далеки от программирования, и написание любого кода для них становится проблемой, предлагается использование только стандартных функций интерфейса PQ.
Задача
Упростить процесс калькуляции затрат и учета доходов для целей управленческого учета из 1С БУХ
Источник данных
Минимальной единицей информации в БУ является бухгалтерская проводка, ее предлагается взять за основу для формирования УУ, т.к. чем больше информации, тем более качественную аналитику мы сможем предоставить.
Читать: https://habr.com/ru/articles/801707/
@big_data_analysis
Если в компании не внедрена автоматизация управленческого учета (ERP, 1С УП, БИТ ФИНАНС и т.д.), то единственным источником для калькуляции затрат остается бухгалтерский учет (далее – БУ), и, в подавляющем большинстве случаев, это 1С БУХ. Для целей калькуляции доходов и расходов в рамках управленческого учета (далее – УУ) полный перенос информации из БУ не всегда корректен. Так, есть ряд расходов и доходов, которые необходимо исключить или наоборот добавить (технические операции) в УУ; иногда бывает необходимо добавить дополнительную аналитику и доп. реквизиты.
В любом случае процесс переноса данных из БУ в УУ всегда трудоемок, а в классическом случае, — когда экономист формирует бюджеты из оборотно-сальдовых ведомостей — еще и крайне негибок, так как любое изменение данных в БУ влечет за собой повторный сбор данных.
В данной статья мы предлагаем применить инструмент Power Query (далее – PQ) для сбора фактических данных и для его частичной автоматизации. Конечно, роль экономиста, пресловутый человеческий фактор, останется превалирующей, но сам процесс будет занимать гораздо меньше времени. Точность учета при этом вырастет.
Т.к. в большинстве случаев экономисты далеки от программирования, и написание любого кода для них становится проблемой, предлагается использование только стандартных функций интерфейса PQ.
Задача
Упростить процесс калькуляции затрат и учета доходов для целей управленческого учета из 1С БУХ
Источник данных
Минимальной единицей информации в БУ является бухгалтерская проводка, ее предлагается взять за основу для формирования УУ, т.к. чем больше информации, тем более качественную аналитику мы сможем предоставить.
Читать: https://habr.com/ru/articles/801707/
@big_data_analysis
Бесплатный сыр в мышеловке, или сказка о потерянном времени
Как я выбирал SGRC систему сегмента МСП.
Автор: Даниил Камбулов, директор по развитию Smart-Trade
Начиная с 2022 года государственный и коммерческий сектора нашей страны находятся под шквалом кибератак. Защита критических айти-процессов превратилась из вчерашней роскоши в сегодняшнюю необходимость. Информационная безопасность -тренд номер один в развитии ИТ страны. И это касается не только крупных компаний, но и малого и среднего бизнеса (МСП). Несмотря на то, что МСП не имеет больших бюджетов, мы также вынуждены искать эффективные средства киберзащиты, чтобы было оптимальное соотношение в балансе цена-качество.
Я руководитель быстро растущей компании, занимающейся торговлей электроникой через маркет-плейсы и b2b системы. В 2022-м году мы выросли в объемах сделок в четыре раза и так же в 2023. Кратный рост обеспечивает внедрение новых IT-решений для автоматизации работы с поставщиками и покупателями. Для нас работоспособность наших систем взаимодействия с API поставщиков и трансляция фидов - жизненная потребность. В случае DDos атаки или адресного воздействия на узлы нашей оболочки мы сразу начинаем нести серьезные убытки. И чем больше времени требуется на устранение внешней агрессии, тем потери становятся чувствительнее. Было принято рациональное решение - инвестировать в защиту нашей IT-службы.
Хочу поделиться своим практическим опытом при выборе решения и набором критериев, на которые стоит обратить внимание, возможно, это будет полезно коллегам по цеху. Мы в Smart-Trade понимаем, насколько сейчас важно обеспечить информационную безопасность, и плотно занимаемся решением этой задачи. В частности, недавно мы задумались о приобретении системы SGRC (Security Governance, Risk, Compliance). SGRC интересует нас в первую очередь с целью автоматизации рутинных операций (сотрудников больше не становится), управления рисками кибербезопасности, обеспечения соответствия законодательству, стандартам и лучшим практикам (комплаенс), обеспечения непрерывности основных процессов бизнеса.
Читать: https://habr.com/ru/articles/801635/
@big_data_analysis
Как я выбирал SGRC систему сегмента МСП.
Автор: Даниил Камбулов, директор по развитию Smart-Trade
Начиная с 2022 года государственный и коммерческий сектора нашей страны находятся под шквалом кибератак. Защита критических айти-процессов превратилась из вчерашней роскоши в сегодняшнюю необходимость. Информационная безопасность -тренд номер один в развитии ИТ страны. И это касается не только крупных компаний, но и малого и среднего бизнеса (МСП). Несмотря на то, что МСП не имеет больших бюджетов, мы также вынуждены искать эффективные средства киберзащиты, чтобы было оптимальное соотношение в балансе цена-качество.
Я руководитель быстро растущей компании, занимающейся торговлей электроникой через маркет-плейсы и b2b системы. В 2022-м году мы выросли в объемах сделок в четыре раза и так же в 2023. Кратный рост обеспечивает внедрение новых IT-решений для автоматизации работы с поставщиками и покупателями. Для нас работоспособность наших систем взаимодействия с API поставщиков и трансляция фидов - жизненная потребность. В случае DDos атаки или адресного воздействия на узлы нашей оболочки мы сразу начинаем нести серьезные убытки. И чем больше времени требуется на устранение внешней агрессии, тем потери становятся чувствительнее. Было принято рациональное решение - инвестировать в защиту нашей IT-службы.
Хочу поделиться своим практическим опытом при выборе решения и набором критериев, на которые стоит обратить внимание, возможно, это будет полезно коллегам по цеху. Мы в Smart-Trade понимаем, насколько сейчас важно обеспечить информационную безопасность, и плотно занимаемся решением этой задачи. В частности, недавно мы задумались о приобретении системы SGRC (Security Governance, Risk, Compliance). SGRC интересует нас в первую очередь с целью автоматизации рутинных операций (сотрудников больше не становится), управления рисками кибербезопасности, обеспечения соответствия законодательству, стандартам и лучшим практикам (комплаенс), обеспечения непрерывности основных процессов бизнеса.
Читать: https://habr.com/ru/articles/801635/
@big_data_analysis
Forwarded from Нейроканал
Кластеризация в машинном обучении: от теории до практики
В этой статье подробно рассматривается принцип работы популярных алгоритмов кластеризации, таких как:
— К-средних.
— Агломеративная кластеризация.
— Спектральная кластеризация.
— DBSCAN.
— Affinity Propagation.
Для каждого алгоритма представлена упрощённая реализация с подробными комментариями, отражающими его основную идею. Кроме того, в конце каждого раздела приведены дополнительные ресурсы для более глубокого изучения соответствующего алгоритма.
@neuro_channel #кластеризация
В этой статье подробно рассматривается принцип работы популярных алгоритмов кластеризации, таких как:
— К-средних.
— Агломеративная кластеризация.
— Спектральная кластеризация.
— DBSCAN.
— Affinity Propagation.
Для каждого алгоритма представлена упрощённая реализация с подробными комментариями, отражающими его основную идею. Кроме того, в конце каждого раздела приведены дополнительные ресурсы для более глубокого изучения соответствующего алгоритма.
@neuro_channel #кластеризация
Кто такой Data Engineer
Да, в этих ваших интернетах есть много материалов о том кто такой Data Engineer (DE), в том числе и на самом хабре. Но мне самому захотелось об этом рассказать. Опыт, хоть и небольшой, в этой сфере у меня есть (Сейчас Data Engineer в Сбер Образовании).
ЭТА СТАТЬЯ НЕ ЯВЛЯЕТСЯ СУПЕР ТЕХНИЧЕСКОЙ, В КОТОРОЙ СТРОГО ВСЕ ПО НАУЧНОМУ. ТУТ Я ОБЪЯСНЯЮ ТЕМУ ПРОСТЫМ ЯЗЫКОМ (по другому не сумею)
Читать: https://habr.com/ru/articles/801971/
@big_data_analysis
Да, в этих ваших интернетах есть много материалов о том кто такой Data Engineer (DE), в том числе и на самом хабре. Но мне самому захотелось об этом рассказать. Опыт, хоть и небольшой, в этой сфере у меня есть (Сейчас Data Engineer в Сбер Образовании).
ЭТА СТАТЬЯ НЕ ЯВЛЯЕТСЯ СУПЕР ТЕХНИЧЕСКОЙ, В КОТОРОЙ СТРОГО ВСЕ ПО НАУЧНОМУ. ТУТ Я ОБЪЯСНЯЮ ТЕМУ ПРОСТЫМ ЯЗЫКОМ (по другому не сумею)
Читать: https://habr.com/ru/articles/801971/
@big_data_analysis
❤1
Что такое MLOps и как мы внедряли каскады моделей
Привет, меня зовут Александр Егоров, я MLOps инженер. В статье расскажу о том, как мы в банке выкатываем огромное количество моделей. Разберём не только пайплайн по выкладке отдельных моделей, но и целые каскады.
Читать: https://habr.com/ru/companies/alfa/articles/801893/
@big_data_analysis
Привет, меня зовут Александр Егоров, я MLOps инженер. В статье расскажу о том, как мы в банке выкатываем огромное количество моделей. Разберём не только пайплайн по выкладке отдельных моделей, но и целые каскады.
Читать: https://habr.com/ru/companies/alfa/articles/801893/
@big_data_analysis
Announcing the general availability of Oracle Analytics Server 2024
Oracle announces the availability of our customer-managed analytics platform - Oracle Analytics Server 2024. This is the next generation of Oracle Business Intelligence Enterprise Edition (OBIEE) and a great path to modernization for anyone needing to deploy analytics on-premises or customer-managed in the cloud. Extend with AI & ML, access, enrich and model data, and visualize data with Oracle Analytics Server (OAS) 2024.
Read: https://blogs.oracle.com/analytics/post/announcing-the-general-availability-of-oracle-analytics-server-2024
@big_data_analysis
Oracle announces the availability of our customer-managed analytics platform - Oracle Analytics Server 2024. This is the next generation of Oracle Business Intelligence Enterprise Edition (OBIEE) and a great path to modernization for anyone needing to deploy analytics on-premises or customer-managed in the cloud. Extend with AI & ML, access, enrich and model data, and visualize data with Oracle Analytics Server (OAS) 2024.
Read: https://blogs.oracle.com/analytics/post/announcing-the-general-availability-of-oracle-analytics-server-2024
@big_data_analysis
Oracle
Announcing the general availability of Oracle Analytics Server 2024
Oracle announces the availability of our customer-managed analytics platform: Oracle Analytics Server 2024. This is the next generation of Oracle Business Intelligence Enterprise Edition (OBIEE) and a great path to modernization for anyone needing to deploy…
❤1
Oracle Analytics Server (OAS) 2024 Update is available
Oracle Analytics Server (OAS) 2024 Update is live
Read: https://blogs.oracle.com/proactivesupportepm/post/oracle-analytics-server-oas-2024-update-is-available
@big_data_analysis
Oracle Analytics Server (OAS) 2024 Update is live
Read: https://blogs.oracle.com/proactivesupportepm/post/oracle-analytics-server-oas-2024-update-is-available
@big_data_analysis
Time Travel Made Easy: Working with Time Series Functions in Oracle Analytics
This post provides an overview of the power of the AGO and TODATE functions in Oracle Analytics to quickly and easily create complex time series analysis of your data.
Read: https://blogs.oracle.com/analytics/post/time-travel-made-easy-working-with-time-series-functions-in-oracle-analytics
@big_data_analysis
This post provides an overview of the power of the AGO and TODATE functions in Oracle Analytics to quickly and easily create complex time series analysis of your data.
Read: https://blogs.oracle.com/analytics/post/time-travel-made-easy-working-with-time-series-functions-in-oracle-analytics
@big_data_analysis
Oracle
Time Travel Made Easy: Working with Time Series Functions in Oracle Analytics
In this post I will provide an overview the power of the AGO and TODATE functions in Oracle Analytics to quickly and easily create complex time series analysis of your data.
Oracle Analytics Server is Available on Oracle Cloud Marketplace
Oracle Analytics Server (OAS) is available on Oracle Cloud Marketplace to make deployment on Oracle Cloud Infrastructure (OCI) quick and easy. With just a few short clicks, you have a fully configurable Oracle Analytics Server instance deployed securely in OCI.
Read: https://blogs.oracle.com/analytics/post/oracle-analytics-servernow-available-on-oci-marketplace
@big_data_analysis
Oracle Analytics Server (OAS) is available on Oracle Cloud Marketplace to make deployment on Oracle Cloud Infrastructure (OCI) quick and easy. With just a few short clicks, you have a fully configurable Oracle Analytics Server instance deployed securely in OCI.
Read: https://blogs.oracle.com/analytics/post/oracle-analytics-servernow-available-on-oci-marketplace
@big_data_analysis
Oracle
Oracle Analytics Server is Available on Oracle Cloud Marketplace
Oracle Analytics Server (OAS) is available on Oracle Cloud Marketplace to make deployment on Oracle Cloud Infrastructure (OCI) quick and easy. With just a few short clicks, you have a fully configurable Oracle Analytics Server instance deployed securely in…
Сотни миллионов рублей: посчитали, сколько тратит бизнес на российские BI-решения
Из чего складывается стоимость BI-решения? Сколько стоят отечественные BI-системы? Достоверные ответы на эти вопросы вы не нагуглите просто так. Да и для заказчиков ценник часто становится сюрпризом, уже не говоря о полной стоимости владения BI-системами.
Мы решили подсчитать, во сколько же на самом деле обходится BI для российских компаний, и провели небольшое исследование. О результатах которого я и рассказываю в этой статье (плюс провожу небольшой опрос).
Читать статью и пройти опрос
Читать: https://habr.com/ru/companies/sapiens_solutions/articles/801977/
@big_data_analysis
Из чего складывается стоимость BI-решения? Сколько стоят отечественные BI-системы? Достоверные ответы на эти вопросы вы не нагуглите просто так. Да и для заказчиков ценник часто становится сюрпризом, уже не говоря о полной стоимости владения BI-системами.
Мы решили подсчитать, во сколько же на самом деле обходится BI для российских компаний, и провели небольшое исследование. О результатах которого я и рассказываю в этой статье (плюс провожу небольшой опрос).
Читать статью и пройти опрос
Читать: https://habr.com/ru/companies/sapiens_solutions/articles/801977/
@big_data_analysis
Манифест Киберправды
Данный текст является ответом на опубликованную накануне «Оду бесполезности споров» с целью рассказать о проекте, который намерен принципиально решить проблему анализа достоверности информации в Интернете и оценки репутации ее авторов. Я считаю, что новые никогда ранее не существовавшие децентрализованные технологии дают нам возможность наконец найти ответ на извечный вопрос «Что есть истина?», которым уже почти две тысячи лет задается человечество.
Читать: https://habr.com/ru/articles/802419/
@big_data_analysis
Данный текст является ответом на опубликованную накануне «Оду бесполезности споров» с целью рассказать о проекте, который намерен принципиально решить проблему анализа достоверности информации в Интернете и оценки репутации ее авторов. Я считаю, что новые никогда ранее не существовавшие децентрализованные технологии дают нам возможность наконец найти ответ на извечный вопрос «Что есть истина?», которым уже почти две тысячи лет задается человечество.
Читать: https://habr.com/ru/articles/802419/
@big_data_analysis