Oracle Analytics Cloud March 2024 update
This blog covers new Oracle Analytics Cloud (OAC) features from the March 2024 update and includes, data connectivity, data prep, modeling, data visualization, augmented analytics, machine learning, localization and embedding. It highlights upgrades to help users connect more sources, faster data prep, better visualizations, customized analytics and localized UIs.
Read: https://blogs.oracle.com/analytics/post/oracle-analytics-cloud-march-2024-update
@big_data_analysis
This blog covers new Oracle Analytics Cloud (OAC) features from the March 2024 update and includes, data connectivity, data prep, modeling, data visualization, augmented analytics, machine learning, localization and embedding. It highlights upgrades to help users connect more sources, faster data prep, better visualizations, customized analytics and localized UIs.
Read: https://blogs.oracle.com/analytics/post/oracle-analytics-cloud-march-2024-update
@big_data_analysis
Oracle
Oracle Analytics Cloud March 2024 update
This blog covers new Oracle Analytics Cloud (OAC) features from the March 2024 update and includes, data connectivity, data prep, modeling, data visualization, augmented analytics, machine learning, localization and embedding. It highlights upgrades to help…
AI and the Evolution of Self-Service Analytics
Explore the evolution of self-service analytics with AI at Oracle. Discover how OAC leverages AI to enhance natural language interactions, generate insights, and revolutionize data storytelling. Dive into the future of analytics, where Oracle empowers users with seamless, intuitive experiences and groundbreaking formats like the Story Exchange, bridging the gap between data and impactful communication.
Read: https://blogs.oracle.com/analytics/post/ai-and-the-evolution-of-selfservice-analytics
@big_data_analysis
Explore the evolution of self-service analytics with AI at Oracle. Discover how OAC leverages AI to enhance natural language interactions, generate insights, and revolutionize data storytelling. Dive into the future of analytics, where Oracle empowers users with seamless, intuitive experiences and groundbreaking formats like the Story Exchange, bridging the gap between data and impactful communication.
Read: https://blogs.oracle.com/analytics/post/ai-and-the-evolution-of-selfservice-analytics
@big_data_analysis
Oracle
AI and the Evolution of Self-Service Analytics
Explore the evolution of self-service analytics with AI at Oracle. Discover how OAC leverages AI to enhance natural language interactions, generate insights, and revolutionize data storytelling. Dive into the future of analytics, where Oracle empowers users…
Oracle Fusion Analytics: Use of Deep Links to navigate to Fusion Applications from Workbooks
Fusion Data Intelligence provides the ability to drill to transactional detail in Oracle Fusion Application directly from a workbook, using data presented from the subject areas as part of the Fusion Data...
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-analytics-use-of-deep-links-to-navigate-to-fusion-applications-from-data-visualizations
@big_data_analysis
Fusion Data Intelligence provides the ability to drill to transactional detail in Oracle Fusion Application directly from a workbook, using data presented from the subject areas as part of the Fusion Data...
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-analytics-use-of-deep-links-to-navigate-to-fusion-applications-from-data-visualizations
@big_data_analysis
Oracle
Oracle Fusion Analytics: Use of Deep Links to navigate to Fusion Applications from Workbooks
Fusion Data Intelligence provides the ability to drill to transactional detail in Oracle Fusion Application directly from a workbook, using data presented from the subject areas as part of the Fusion Data...
G2 Market Research vs Gartner: слон или тигр?
Мы в Кругах Громова любим исследования. Можно было бы даже сказать «собаку на них съели», но собакенов мы любим не меньше, чем исследования, и, конечно, есть никого не собираемся. Как бы там ни было, нам интересно – и, конечно, познавательно – наблюдать и изучать работу крупных мировых игроков. Сегодня решили поделиться с вами результатами сравнения двух «рапторов» – Gartner и G2 Market Research.
Читать: https://habr.com/ru/articles/800173/
@big_data_analysis
Мы в Кругах Громова любим исследования. Можно было бы даже сказать «собаку на них съели», но собакенов мы любим не меньше, чем исследования, и, конечно, есть никого не собираемся. Как бы там ни было, нам интересно – и, конечно, познавательно – наблюдать и изучать работу крупных мировых игроков. Сегодня решили поделиться с вами результатами сравнения двух «рапторов» – Gartner и G2 Market Research.
Читать: https://habr.com/ru/articles/800173/
@big_data_analysis
«Иногда твоя работа выглядит магией»: что делают дата-сайентисты в промышленности и почему так востребованы
Привет, Хабр! Меня зовут Светлана Потапова, я руковожу «Северсталь Диджитал» — подразделением ИТ-функции Северстали, которое занимается разработкой и внедрением решений на основе машинного обучения.
Data Science уже давно вышла за пределы ИТ-компаний, шагнула дальше банков и телекома и пришла в промышленность, в том числе тяжёлую. Все обратили внимание на работу с данными, ведь они справедливо считаются новой нефтью, а их правильное использование даёт компаниям существенные преимущества. Обилие разнообразных задач со своей спецификой привело к появлению отдельного направления — Data Science (DS) в промышленности.
В этой статье расскажу, зачем становиться дата-сайентистом в промышленности, кто это такой и чем занимается и почему повышать цифровизацию производства непросто, но того стоит.
Читать: https://habr.com/ru/companies/netologyru/articles/800153/
@big_data_analysis
Привет, Хабр! Меня зовут Светлана Потапова, я руковожу «Северсталь Диджитал» — подразделением ИТ-функции Северстали, которое занимается разработкой и внедрением решений на основе машинного обучения.
Data Science уже давно вышла за пределы ИТ-компаний, шагнула дальше банков и телекома и пришла в промышленность, в том числе тяжёлую. Все обратили внимание на работу с данными, ведь они справедливо считаются новой нефтью, а их правильное использование даёт компаниям существенные преимущества. Обилие разнообразных задач со своей спецификой привело к появлению отдельного направления — Data Science (DS) в промышленности.
В этой статье расскажу, зачем становиться дата-сайентистом в промышленности, кто это такой и чем занимается и почему повышать цифровизацию производства непросто, но того стоит.
Читать: https://habr.com/ru/companies/netologyru/articles/800153/
@big_data_analysis
Пользовательские карты в Дельта BI
В функционале Дельты есть возможность импорта пользовательских карт, которые можно в дальнейшем использовать вместо стандартных форм, входящих в геопространственную базу данных Дельты. Такая возможность может быть полезна, например, если требуется создать карту, отображающую крупные регионы, объединяющие несколько стран (Евросоюз, СНГ, страны Азиатско-Тихоокеанского региона и т.п.)
Или, как будет рассмотрено в данном примере, будет загружена карта административных округов Москвы.
Читать: https://habr.com/ru/companies/navicon/articles/800297/
@big_data_analysis
В функционале Дельты есть возможность импорта пользовательских карт, которые можно в дальнейшем использовать вместо стандартных форм, входящих в геопространственную базу данных Дельты. Такая возможность может быть полезна, например, если требуется создать карту, отображающую крупные регионы, объединяющие несколько стран (Евросоюз, СНГ, страны Азиатско-Тихоокеанского региона и т.п.)
Или, как будет рассмотрено в данном примере, будет загружена карта административных округов Москвы.
Читать: https://habr.com/ru/companies/navicon/articles/800297/
@big_data_analysis
Проверь себя: Ты — знаток мира BI?
Привет, Хабр! А сейчас у нас на кону интересное развлечение. Мы предлагаем вам угадать двух тайных экспертов марафона по визуализции “Ничего Лишнего”, которые будут принимать участие в двух днях работы с участниками. Под катом — краткие характеристики наших героев, а также варианты ответов. Проверьте себя, насколько вы знаете мир BI (или проверьте свою интуицию, что тоже забавно).
Читать: https://habr.com/ru/companies/visiology/articles/800465/
@big_data_analysis
Привет, Хабр! А сейчас у нас на кону интересное развлечение. Мы предлагаем вам угадать двух тайных экспертов марафона по визуализции “Ничего Лишнего”, которые будут принимать участие в двух днях работы с участниками. Под катом — краткие характеристики наших героев, а также варианты ответов. Проверьте себя, насколько вы знаете мир BI (или проверьте свою интуицию, что тоже забавно).
Читать: https://habr.com/ru/companies/visiology/articles/800465/
@big_data_analysis
Элегантный стек данных для встроенной аналитики
Контекст
По работе мне доводилось иметь дело с аналитическими стеками любых конфигураций и размеров. Мы на собственном опыте изучили, что цена стека для встроенной аналитики данных, расположенного за фронтендом, может моментально вырасти настолько, что об окупаемости инвестиций и речи не будет. Такой риск существует, если тщательно не просчитать 1) модели ценообразования для разных технологий и затраты на единицу продукции, 2) реализованную стоимость 3) производительность труда разработчика.
Сейчас появилась целая волна инструментов, созданных специально для решений из области встраиваемой аналитики, поэтому я решил набросать этот пост, в котором покажу, как некоторые из этих инструментов сочетаются друг с другом, и почему они так хороши.
В этой статье будут исследованы соотношения затрат/ценности и преимущества нескольких стеков, ориентированных на работу с данными, а именно MotherDuck / Cube / React (MDCuRe)
Читать: https://habr.com/ru/companies/piter/articles/800515/
@big_data_analysis
Контекст
По работе мне доводилось иметь дело с аналитическими стеками любых конфигураций и размеров. Мы на собственном опыте изучили, что цена стека для встроенной аналитики данных, расположенного за фронтендом, может моментально вырасти настолько, что об окупаемости инвестиций и речи не будет. Такой риск существует, если тщательно не просчитать 1) модели ценообразования для разных технологий и затраты на единицу продукции, 2) реализованную стоимость 3) производительность труда разработчика.
Сейчас появилась целая волна инструментов, созданных специально для решений из области встраиваемой аналитики, поэтому я решил набросать этот пост, в котором покажу, как некоторые из этих инструментов сочетаются друг с другом, и почему они так хороши.
В этой статье будут исследованы соотношения затрат/ценности и преимущества нескольких стеков, ориентированных на работу с данными, а именно MotherDuck / Cube / React (MDCuRe)
Читать: https://habr.com/ru/companies/piter/articles/800515/
@big_data_analysis
Как делить пользователей на группы в АБ-тестах: ошибки и рекомендации
В предыдущих статьях https://habr.com/ru/articles/787098/, https://habr.com/ru/articles/795251/ и https://habr.com/ru/articles/781060/ мы рассмотрели основные подводные камни автоматизации и анализу АБ тестов, привели подробный обзор статей по этой теме, а так же рассмотрели типичные задачи аналитика данных. В контексте АБ-тестов одним из ключевых аспектов является механизм разделения на группы, который в терминологии специалистов часто называется сплитовалкой.
Может показаться, что задача элементарная - сгенерировать случайное целое число каждому пользователю с вероятностью 1/n, где n - число групп в АБ тесте. Но на практике, особенно для высоконагруженных сервисов, таких как Ozon, возникает множество архитектурных и платформенных сложностей. В данной статье мы сконцентрируемся на основных принципах деления на группы, принятых в индустрии.
Читать: https://habr.com/ru/articles/800809/
@big_data_analysis
В предыдущих статьях https://habr.com/ru/articles/787098/, https://habr.com/ru/articles/795251/ и https://habr.com/ru/articles/781060/ мы рассмотрели основные подводные камни автоматизации и анализу АБ тестов, привели подробный обзор статей по этой теме, а так же рассмотрели типичные задачи аналитика данных. В контексте АБ-тестов одним из ключевых аспектов является механизм разделения на группы, который в терминологии специалистов часто называется сплитовалкой.
Может показаться, что задача элементарная - сгенерировать случайное целое число каждому пользователю с вероятностью 1/n, где n - число групп в АБ тесте. Но на практике, особенно для высоконагруженных сервисов, таких как Ozon, возникает множество архитектурных и платформенных сложностей. В данной статье мы сконцентрируемся на основных принципах деления на группы, принятых в индустрии.
Читать: https://habr.com/ru/articles/800809/
@big_data_analysis
Материалы для подготовки к собеседованию на позицию Data Scientist. Часть 2: Классическое машинное обучение
Привет! Меня зовут Артем. Я работаю Data Scientist'ом в компании МегаФон (платформа для безопасной монетизации данных OneFactor). Мы строим скоринговые (credit scoring), лидогенерационные (lead generation) и антифрод (anti-fraud) модели на телеком данных, а также делаем гео-аналитику (geoanalytics).
В предыдущей статье я поделился материалами для подготовки к одному из самых волнительных (для многих) этапов - Live Coding.
В этой статье рассмотрим материалы, которые можно использовать для подготовки к секции по классическому машинному обучению.
Читать: https://habr.com/ru/companies/megafon/articles/800919/
@big_data_analysis
Привет! Меня зовут Артем. Я работаю Data Scientist'ом в компании МегаФон (платформа для безопасной монетизации данных OneFactor). Мы строим скоринговые (credit scoring), лидогенерационные (lead generation) и антифрод (anti-fraud) модели на телеком данных, а также делаем гео-аналитику (geoanalytics).
В предыдущей статье я поделился материалами для подготовки к одному из самых волнительных (для многих) этапов - Live Coding.
В этой статье рассмотрим материалы, которые можно использовать для подготовки к секции по классическому машинному обучению.
Читать: https://habr.com/ru/companies/megafon/articles/800919/
@big_data_analysis
Два подхода моделирования исторических данных
Перевод статьи с Medium
В статье обсуждаются моделирование данных для хранения исторических данных, включая использование временных таблиц и исторических таблиц.
Временные таблицы добавляют две даты к каждой записи для определения периода актуальности данных, в то время как исторические таблицы сохраняют только последние записи в основной таблице, перемещая старые записи в отдельную историческую таблицу.
Это обеспечивает более четкий аудит изменений и улучшает производительность запросов к историческим данным, но требует дополнительного хранения и обслуживания.
Читать: https://habr.com/ru/articles/801067/
@big_data_analysis
Перевод статьи с Medium
В статье обсуждаются моделирование данных для хранения исторических данных, включая использование временных таблиц и исторических таблиц.
Временные таблицы добавляют две даты к каждой записи для определения периода актуальности данных, в то время как исторические таблицы сохраняют только последние записи в основной таблице, перемещая старые записи в отдельную историческую таблицу.
Это обеспечивает более четкий аудит изменений и улучшает производительность запросов к историческим данным, но требует дополнительного хранения и обслуживания.
Читать: https://habr.com/ru/articles/801067/
@big_data_analysis
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM Analytics
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM Analytics.
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-hcm-analytics-announcements
@big_data_analysis
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM Analytics.
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-hcm-analytics-announcements
@big_data_analysis
Oracle
Announcing Employee Health and Safety, Journeys, and HR Helpdesk Analytics in Oracle Fusion HCM
👍2
EBS managed connector for Oracle Fusion Data Intelligence
Oracle Fusion Data Intelligence (FDI) has introduced multiple connectors to leverage the data pipeline infrastructure to extract data from external sources. This blog describes a use case to configure the Oracle EBS (E-Business Suite) connector to connect to EBS and utilize the FDIP Data Augmentation feature to extract transaction data from EBS into FDI's ADW (Autonomous Data Warehouse).
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-data-intelligence-platform-ebs-managed-connector
@big_data_analysis
Oracle Fusion Data Intelligence (FDI) has introduced multiple connectors to leverage the data pipeline infrastructure to extract data from external sources. This blog describes a use case to configure the Oracle EBS (E-Business Suite) connector to connect to EBS and utilize the FDIP Data Augmentation feature to extract transaction data from EBS into FDI's ADW (Autonomous Data Warehouse).
Read: https://blogs.oracle.com/analytics/post/oracle-fusion-data-intelligence-platform-ebs-managed-connector
@big_data_analysis
Oracle
Oracle Fusion Data Intelligence Platform: EBS Managed Connector
Oracle Fusion Data Intelligence Platform has introduced multiple connectors to leverage the data pipeline infrastructure to extract data from external sources. This blog describes the use-case to configure EBS connector to connect to EBS and utilize FDIP…
👍1
Integration of Oracle Analytics Cloud Semantic Modeler with Git
Read this blog to understand how you can use GitHub repositories with Oracle Analytics to enable concurrent semantic model development.
Read: https://blogs.oracle.com/analytics/post/oac-semantic-modeller-github
@big_data_analysis
Read this blog to understand how you can use GitHub repositories with Oracle Analytics to enable concurrent semantic model development.
Read: https://blogs.oracle.com/analytics/post/oac-semantic-modeller-github
@big_data_analysis
Oracle
Integration of Oracle Analytics Cloud Semantic Modeller with GitHub Repository
Oracle Analytics Cloud supports for integration of the GIT repository with the semantic model. Using a Git repository provides version control and multiple-user development of semantic models. You can use Git repositories with Oracle Analytics to enable concurrent…
Дом, милый дом: нюансы работы с ClickHouse. Часть 1
Всем привет, меня зовут Пётр, я инженер компании Nixys. На современных проектах используется огромное разнообразие баз данных: реляционные, ключ-значение, документоориентированные. Особое место среди них занимают колоночные базы данных, ярким представителем которых является ClickHouse. Это мощный инструмент, который способен обрабатывать миллиарды строк в секунду при минимальном времени ответа. Однако, для максимальной эффективности ClickHouse необходимо понимать ряд фундаментальных моментов для того, чтобы использовать его по назначению. В этой серии статей мы разберем особенности работы ClickHouse, которые помогут в выжимании максимума из этой базы. И сегодня начнём с фундаментальных теоретических моментов, чтобы составить максимально полное общее впечатление, которое поможет нам в дальнейшем.
Читать: https://habr.com/ru/companies/nixys/articles/801029/
@big_data_analysis
Всем привет, меня зовут Пётр, я инженер компании Nixys. На современных проектах используется огромное разнообразие баз данных: реляционные, ключ-значение, документоориентированные. Особое место среди них занимают колоночные базы данных, ярким представителем которых является ClickHouse. Это мощный инструмент, который способен обрабатывать миллиарды строк в секунду при минимальном времени ответа. Однако, для максимальной эффективности ClickHouse необходимо понимать ряд фундаментальных моментов для того, чтобы использовать его по назначению. В этой серии статей мы разберем особенности работы ClickHouse, которые помогут в выжимании максимума из этой базы. И сегодня начнём с фундаментальных теоретических моментов, чтобы составить максимально полное общее впечатление, которое поможет нам в дальнейшем.
Читать: https://habr.com/ru/companies/nixys/articles/801029/
@big_data_analysis
Современные тенденции и проблемы управления данными на рынке РФ: вызовы 2024 года
В эпоху данных и активной цифровизации вопросы эффективного управления данными становятся все более актуальными. От того, насколько эффективно компания управляет своими данными, зависит эффективность принятия управленческих решений, что влияет на выручку компании и чистую прибыль.
Вопросы управления данными включают задачи эффективного хранения и обработки данных (КХД, озера данных, ETL & ELT) в облаках и On-Premise, настройки интеграционных потоков (транспорт) для анализа в режиме реального времени и не только, вопросы предоставления данных во внешние системы и BI, процессы качества данных и каталогизации, безопасность данных, решения на базе расширенной аналитики и ИИ.
Александр Сулейкин, кандидат технических наук, генеральный директор и архитектор Big Data систем компании “ДЮК Технологии” дает прогноз на предстоящий год: какие технологии управления данными будут развиваться, с какими проблемами сталкивается бизнес и каких технологий не хватает для полноценного импортозамещения.
Читать: https://habr.com/ru/articles/801599/
@big_data_analysis
В эпоху данных и активной цифровизации вопросы эффективного управления данными становятся все более актуальными. От того, насколько эффективно компания управляет своими данными, зависит эффективность принятия управленческих решений, что влияет на выручку компании и чистую прибыль.
Вопросы управления данными включают задачи эффективного хранения и обработки данных (КХД, озера данных, ETL & ELT) в облаках и On-Premise, настройки интеграционных потоков (транспорт) для анализа в режиме реального времени и не только, вопросы предоставления данных во внешние системы и BI, процессы качества данных и каталогизации, безопасность данных, решения на базе расширенной аналитики и ИИ.
Александр Сулейкин, кандидат технических наук, генеральный директор и архитектор Big Data систем компании “ДЮК Технологии” дает прогноз на предстоящий год: какие технологии управления данными будут развиваться, с какими проблемами сталкивается бизнес и каких технологий не хватает для полноценного импортозамещения.
Читать: https://habr.com/ru/articles/801599/
@big_data_analysis
Как провести unit-тестирование Flink-операторов: TestHarness
Привет всем, на связи снова Александр Бобряков, техлид в команде МТС Аналитики. Продолжаем цикл статей про фреймворк Apache Flink.
Напомню, в предыдущих частях я рассказывал про построение пайплайна Kafka-to-Kafka с промежуточным разделением потока и дедупликацией событий. Также в предыдущей статье я рассказал, как можно динамически определить выходной Kafka-топик для каждого отправляемого события.
Начиная с этой статьи начнём разбирать, как тестировать всё наше приложение Flink + Spring. Многие описанные подходы вполне применимы и в любом другом обычном Spring-приложении, поэтому, надеюсь, вы найдёте для себя что-то новое.
В данной статье мы рассмотрим, как протестировать stateless- и stateful-операторы Flink с помощью абстракций TestHarness.
Читать: https://habr.com/ru/companies/ru_mts/articles/801693/
@big_data_analysis
Привет всем, на связи снова Александр Бобряков, техлид в команде МТС Аналитики. Продолжаем цикл статей про фреймворк Apache Flink.
Напомню, в предыдущих частях я рассказывал про построение пайплайна Kafka-to-Kafka с промежуточным разделением потока и дедупликацией событий. Также в предыдущей статье я рассказал, как можно динамически определить выходной Kafka-топик для каждого отправляемого события.
Начиная с этой статьи начнём разбирать, как тестировать всё наше приложение Flink + Spring. Многие описанные подходы вполне применимы и в любом другом обычном Spring-приложении, поэтому, надеюсь, вы найдёте для себя что-то новое.
В данной статье мы рассмотрим, как протестировать stateless- и stateful-операторы Flink с помощью абстракций TestHarness.
Читать: https://habr.com/ru/companies/ru_mts/articles/801693/
@big_data_analysis
Калькуляция затрат для сбора факта Бюджета доходов и расходов (БДР) с помощью Power Query
Если в компании не внедрена автоматизация управленческого учета (ERP, 1С УП, БИТ ФИНАНС и т.д.), то единственным источником для калькуляции затрат остается бухгалтерский учет (далее – БУ), и, в подавляющем большинстве случаев, это 1С БУХ. Для целей калькуляции доходов и расходов в рамках управленческого учета (далее – УУ) полный перенос информации из БУ не всегда корректен. Так, есть ряд расходов и доходов, которые необходимо исключить или наоборот добавить (технические операции) в УУ; иногда бывает необходимо добавить дополнительную аналитику и доп. реквизиты.
В любом случае процесс переноса данных из БУ в УУ всегда трудоемок, а в классическом случае, — когда экономист формирует бюджеты из оборотно-сальдовых ведомостей — еще и крайне негибок, так как любое изменение данных в БУ влечет за собой повторный сбор данных.
В данной статья мы предлагаем применить инструмент Power Query (далее – PQ) для сбора фактических данных и для его частичной автоматизации. Конечно, роль экономиста, пресловутый человеческий фактор, останется превалирующей, но сам процесс будет занимать гораздо меньше времени. Точность учета при этом вырастет.
Т.к. в большинстве случаев экономисты далеки от программирования, и написание любого кода для них становится проблемой, предлагается использование только стандартных функций интерфейса PQ.
Задача
Упростить процесс калькуляции затрат и учета доходов для целей управленческого учета из 1С БУХ
Источник данных
Минимальной единицей информации в БУ является бухгалтерская проводка, ее предлагается взять за основу для формирования УУ, т.к. чем больше информации, тем более качественную аналитику мы сможем предоставить.
Читать: https://habr.com/ru/articles/801707/
@big_data_analysis
Если в компании не внедрена автоматизация управленческого учета (ERP, 1С УП, БИТ ФИНАНС и т.д.), то единственным источником для калькуляции затрат остается бухгалтерский учет (далее – БУ), и, в подавляющем большинстве случаев, это 1С БУХ. Для целей калькуляции доходов и расходов в рамках управленческого учета (далее – УУ) полный перенос информации из БУ не всегда корректен. Так, есть ряд расходов и доходов, которые необходимо исключить или наоборот добавить (технические операции) в УУ; иногда бывает необходимо добавить дополнительную аналитику и доп. реквизиты.
В любом случае процесс переноса данных из БУ в УУ всегда трудоемок, а в классическом случае, — когда экономист формирует бюджеты из оборотно-сальдовых ведомостей — еще и крайне негибок, так как любое изменение данных в БУ влечет за собой повторный сбор данных.
В данной статья мы предлагаем применить инструмент Power Query (далее – PQ) для сбора фактических данных и для его частичной автоматизации. Конечно, роль экономиста, пресловутый человеческий фактор, останется превалирующей, но сам процесс будет занимать гораздо меньше времени. Точность учета при этом вырастет.
Т.к. в большинстве случаев экономисты далеки от программирования, и написание любого кода для них становится проблемой, предлагается использование только стандартных функций интерфейса PQ.
Задача
Упростить процесс калькуляции затрат и учета доходов для целей управленческого учета из 1С БУХ
Источник данных
Минимальной единицей информации в БУ является бухгалтерская проводка, ее предлагается взять за основу для формирования УУ, т.к. чем больше информации, тем более качественную аналитику мы сможем предоставить.
Читать: https://habr.com/ru/articles/801707/
@big_data_analysis
Бесплатный сыр в мышеловке, или сказка о потерянном времени
Как я выбирал SGRC систему сегмента МСП.
Автор: Даниил Камбулов, директор по развитию Smart-Trade
Начиная с 2022 года государственный и коммерческий сектора нашей страны находятся под шквалом кибератак. Защита критических айти-процессов превратилась из вчерашней роскоши в сегодняшнюю необходимость. Информационная безопасность -тренд номер один в развитии ИТ страны. И это касается не только крупных компаний, но и малого и среднего бизнеса (МСП). Несмотря на то, что МСП не имеет больших бюджетов, мы также вынуждены искать эффективные средства киберзащиты, чтобы было оптимальное соотношение в балансе цена-качество.
Я руководитель быстро растущей компании, занимающейся торговлей электроникой через маркет-плейсы и b2b системы. В 2022-м году мы выросли в объемах сделок в четыре раза и так же в 2023. Кратный рост обеспечивает внедрение новых IT-решений для автоматизации работы с поставщиками и покупателями. Для нас работоспособность наших систем взаимодействия с API поставщиков и трансляция фидов - жизненная потребность. В случае DDos атаки или адресного воздействия на узлы нашей оболочки мы сразу начинаем нести серьезные убытки. И чем больше времени требуется на устранение внешней агрессии, тем потери становятся чувствительнее. Было принято рациональное решение - инвестировать в защиту нашей IT-службы.
Хочу поделиться своим практическим опытом при выборе решения и набором критериев, на которые стоит обратить внимание, возможно, это будет полезно коллегам по цеху. Мы в Smart-Trade понимаем, насколько сейчас важно обеспечить информационную безопасность, и плотно занимаемся решением этой задачи. В частности, недавно мы задумались о приобретении системы SGRC (Security Governance, Risk, Compliance). SGRC интересует нас в первую очередь с целью автоматизации рутинных операций (сотрудников больше не становится), управления рисками кибербезопасности, обеспечения соответствия законодательству, стандартам и лучшим практикам (комплаенс), обеспечения непрерывности основных процессов бизнеса.
Читать: https://habr.com/ru/articles/801635/
@big_data_analysis
Как я выбирал SGRC систему сегмента МСП.
Автор: Даниил Камбулов, директор по развитию Smart-Trade
Начиная с 2022 года государственный и коммерческий сектора нашей страны находятся под шквалом кибератак. Защита критических айти-процессов превратилась из вчерашней роскоши в сегодняшнюю необходимость. Информационная безопасность -тренд номер один в развитии ИТ страны. И это касается не только крупных компаний, но и малого и среднего бизнеса (МСП). Несмотря на то, что МСП не имеет больших бюджетов, мы также вынуждены искать эффективные средства киберзащиты, чтобы было оптимальное соотношение в балансе цена-качество.
Я руководитель быстро растущей компании, занимающейся торговлей электроникой через маркет-плейсы и b2b системы. В 2022-м году мы выросли в объемах сделок в четыре раза и так же в 2023. Кратный рост обеспечивает внедрение новых IT-решений для автоматизации работы с поставщиками и покупателями. Для нас работоспособность наших систем взаимодействия с API поставщиков и трансляция фидов - жизненная потребность. В случае DDos атаки или адресного воздействия на узлы нашей оболочки мы сразу начинаем нести серьезные убытки. И чем больше времени требуется на устранение внешней агрессии, тем потери становятся чувствительнее. Было принято рациональное решение - инвестировать в защиту нашей IT-службы.
Хочу поделиться своим практическим опытом при выборе решения и набором критериев, на которые стоит обратить внимание, возможно, это будет полезно коллегам по цеху. Мы в Smart-Trade понимаем, насколько сейчас важно обеспечить информационную безопасность, и плотно занимаемся решением этой задачи. В частности, недавно мы задумались о приобретении системы SGRC (Security Governance, Risk, Compliance). SGRC интересует нас в первую очередь с целью автоматизации рутинных операций (сотрудников больше не становится), управления рисками кибербезопасности, обеспечения соответствия законодательству, стандартам и лучшим практикам (комплаенс), обеспечения непрерывности основных процессов бизнеса.
Читать: https://habr.com/ru/articles/801635/
@big_data_analysis