Навчальні курси Big Data

Навчальні курси Big Data

Місцеві, під керівництвом інструктора живуть великі курси навчання даних починаються з введення в елементарний концепції великих даних, а потім прогресу в мовах програмування і методологій, які використовуються для виконання аналізу даних. Засоби та інфраструктура для ввімкнення великих сховищ даних, розподілених переробки та масштабованості обговорюються, порівнюються і впроваджені в демонстраційних сесій.

Велика підготовка даних доступна як "на місці навчання" або "дистанційне навчання жити". На місці навчання в прямому ефірі може здійснюватися на місцевому рівні в україні або в Неbleprog корпоративні навчальні центри в україні. Дистанційне навчання в прямому ефірі здійснюється шляхом інтерактивного, віддаленого робочого стола.

Nobleпрога-ваш місцевий навчальний провайдер

Machine Translated

Відгуки

★★★★★
★★★★★

Big Data Зміст курсу

Назва курсу
Тривалість
Огляд
Назва курсу
Тривалість
Огляд
21 годин
Python є масштабним, гнучким і широко використовуваним мовою програмування для науки про дані та машинного навчання. Spark - це двигун з обробки даних, який використовується для пошуку, аналізу та трансформації великих даних, в той час як Hadoop - це програмна бібліотека для масового зберігання та обробки даних.

Цей інструктор-під керівництвом, прямий тренінг (онлайн або на сайті) спрямований на розробників, які бажають використовувати і інтегрувати Spark, Hadoop, і Python для обробки, аналізу та трансформації великих і складних наборів даних.

Після закінчення тренінгу учасники зможуть:

Налаштуйте необхідне середовище для початку обробки великих даних за допомогою Spark, Hadoop, і Python. Поясніть характеристики, основні компоненти та архітектуру Спарка і Hadoop. Дізнайтеся, як інтегрувати Spark, Hadoop, і Python для обробки великих даних. Вивчайте інструменти в екосистемі Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, і Flume). Створюйте спільні системи фільтрації, подібні до Netflix, YouTube, Amazon, Spotify і Google. Використовуйте Apache Mahout для скалювання алгоритмів машинного навчання.

Формат курсу

Інтерактивні лекції та дискусії. Багато випробувань і практики. Використання в робочому середовищі Live-Lab.

Курсові варіанти адаптації

Щоб отримати персоналізовану підготовку для цього курсу, будь ласка, зв'яжіться з нами, щоб організувати.
14 годин
Waikato Environment for Knowledge Analysis (Weka) - це програмне забезпечення для візуалізації видобутку даних з відкритим кодом. Він забезпечує колекцію алгоритмів машинного навчання для підготовки даних, класифікації, кластерування та інших діяльності з видобутку даних.

Цей інструктор-під керівництвом, прямий тренінг (онлайн або онлайн) спрямований на аналітиків даних та вчених даних, які бажають використовувати Weka для виконання завдань з видобутку даних.

Після закінчення тренінгу учасники зможуть:

Завантажити та встановити Weka Розуміння Weka навколишнього середовища та робочого банку. Виконання завдань з видобутку даних за допомогою Weka.

Формат курсу

Інтерактивні лекції та дискусії. Багато випробувань і практики. Використання в робочому середовищі Live-Lab.

Курсові варіанти адаптації

Щоб отримати персоналізовану підготовку для цього курсу, будь ласка, зв'яжіться з нами, щоб організувати.
14 годин
IBM SPSS Modeler - це програмне забезпечення, що використовується для видобутку даних та текстової аналітики. Він забезпечує набір інструментів для видобутку даних, які можуть побудувати прогнозні моделі та виконувати завдання з аналізу даних.

Цей інструктор-під керівництвом, прямий тренінг (онлайн або онлайн) спрямований на аналітиків даних або будь-кого, хто бажає використовувати SPSS Modeler для виконання діяльності з видобутку даних.

Після закінчення тренінгу учасники зможуть:

Визначте основи видобутку даних. Дізнайтеся, як імпортувати та оцінювати якість даних з моделером. Розробка, розробка та оцінка моделей даних ефективно.

Формат курсу

Інтерактивні лекції та дискусії. Багато випробувань і практики. Використання в робочому середовищі Live-Lab.

Курсові варіанти адаптації

Щоб отримати персоналізовану підготовку для цього курсу, будь ласка, зв'яжіться з нами, щоб організувати.
35 годин
Учасники, які завершують цю інструкційну, пряму підготовку, отримають практичне, реальне розуміння Big Data та його пов'язаних технологій, методологій та інструментів.

Учасники отримають можливість впровадити ці знання в практику через практичні вправи. Групова взаємодія та відгуки інструктора є важливим компонентом класу.

Курс починається з введення в елементарні поняття Big Data, потім прогресує в мови програмування і методології, що використовуються для виконання Data Analysis. Нарешті, ми обговорюємо інструменти та інфраструктуру, які дозволяють Big Data зберігання, розподіленого обробки та Scalaздатності.

Формат курсу

Часткова лекція, частина дискусії, практична практика та реалізація, іноді квиз для вимірювання прогресу.
21 годин
Python є високоякісним мовою програмування, відомим за чіткий синтакс і читальність коду. Spark - це двигун для обробки даних, який використовується для пошуку, аналізу та перетворення великих даних. PySpark дозволяє користувачам інтерфейсувати Spark з Python.

У цьому тренінгу, який очолює інструктор, учасники дізнаються, як використовувати Python і Spark разом для аналізу великих даних, оскільки вони працюють на практичних тренуваннях.

Після закінчення тренінгу учасники зможуть:

Знайдіть, як використовувати Spark з Python для аналізу Big Data. Працюйте на тренуваннях, які імітують реальні випадки світу. Використовуйте різні інструменти та методи для аналізу великих даних PySpark.

Формат курсу

Часткова лекція, частина дискусії, заняття та важка практика
7 годин
Цей курс висвітлює, як використовувати мову SQL Hive (AKA: Hive HQL, SQL на Hive , Hive QL) для людей, які витягують дані з Hive
21 годин
Відкриття знань в базах даних (KDD) - це процес відкриття корисних знань з збору даних. Реальні додатки для цієї техніки видобутку даних включають маркетинг, виявлення шахрайства, телекомунікації та виробництво.

У цьому інструкторіальному, живому курсі ми вводимо процеси, пов'язані з KDD, і проводимо серію вправ для практики реалізації цих процесів.

аудиторія

Аналітики даних або будь-хто, хто зацікавлений у навчанні, як тлумачити дані для вирішення проблем

Формат курсу

Після теоретичної дискусії про КДД, інструктор представить реальні випадки, які вимагають застосування КДД для вирішення проблеми. Учасники підготують, вибирають та очищають зразки даних та використовують свої попередні знання про дані, щоб запропонувати рішення на основі результатів своїх зауважень.
14 годин
Apache Kylin є екстремальним, розповсюдженим аналітичним двигуном для великих даних.

У цьому тренінгу, очолюваному інструктором, учасники дізнаються, як використовувати Apache Kylin для встановлення складу даних в реальному часі.

Після закінчення тренінгу учасники зможуть:

Використання даних потоку в реальному часі за допомогою Kylin Використовуйте Apache Kylin's потужні функції, богатий SQL інтерфейс, спарк кубінг і позашляховик за запитом латентність

Примітка

Ми використовуємо найновішу версію Kylin (згідно з цим написанням, Apache Kylin v2.0)

аудиторія

Big Data інженери [ 0 ] Аналітики

Формат курсу

Часткова лекція, частина дискусії, заняття та важка практика
14 годин
Datameer - це платформа бізнес-аналітики та аналітики, побудована на Hadoop. Це дозволяє кінцевим користувачам легко знаходити, вивчати та корелювати великомасштабні, структуровані, напівструктуровані та неструктуровані дані у зручному для використання спосіб.

У цій інструкції під керівництвом живих тренінгів учасники навчаться використовувати Datameer для подолання крутих навчальних кривої Hadoop, коли вони проходять процедуру встановлення та аналізу ряду великих джерел даних.

До кінця цього тренінгу учасники зможуть:

- Створюйте, перевіряйте та інтерактивно вивчайте озеро даних підприємства
- Доступ до сховищ даних бізнес-аналітики, транзакційних баз даних та інших аналітичних магазинів
- Використовуйте користувальницький інтерфейс електронних таблиць, щоб створювати конвеєрні обробки даних від кінцевого до кінця
- Доступ до попередньо побудованих функцій для вивчення складних зв'язків даних
- Використовуйте майстри перетягування для візуалізації даних та створення інформаційних панелей
- Використовуйте таблиці, діаграми, графіки та карти, щоб аналізувати результати запитів

Аудиторія

- Аналітик даних

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 годин
Обмін даними - це процес ідентифікації закономірностей великих даних за допомогою таких методів науки, як машинне навчання. Використовуючи Excel як набір аналітичних даних, користувачі можуть виконувати обробку даних та аналіз даних.

Ця навчальна програма під керівництвом інструкторів (на місці або на дистанційному рівні) спрямована на науковців, які хочуть використовувати Excel для пошуку даних.

Після закінчення цього тренінгу учасники зможуть:

- Дослідіть дані за допомогою Excel щоб здійснити пошук даних та аналіз.
- Використовуйте алгоритми Microsoft для пошуку даних.
- Розуміння понять у Excel даних Excel .

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і вправ.
- Ручна реалізація в умовах лабораторії.

Параметри налаштування курсу

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
21 годин
Dremio є платформою даних з відкритим кодом, яка прискорює пошук різних типів джерел даних. Dremio інтегрується з відносними базами даних, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, та іншими джерелами даних. Він підтримує SQL і забезпечує веб-UI для будівництва запитів.

У цьому тренінгу, який очолює інструктор, учасники дізнаються, як встановити, налаштувати і використовувати Dremio в якості об'єднаного шару для інструментів аналізу даних та базових даних.

Після закінчення тренінгу учасники зможуть:

Завантажити та завантажити Dremio Виконання запитів проти кількох джерел даних, незалежно від місця розташування, розміру або структури Інтеграція Dremio з BI та джерелами даних, такими як Tableau і Elasticsearch

аудиторія

Дані науковці Business Аналітики Інженери даних

Формат курсу

Часткова лекція, частина дискусії, заняття та важка практика

Примітки

Щоб отримати персоналізовану підготовку для цього курсу, будь ласка, зв'яжіться з нами, щоб організувати.
14 годин
Мета курсу полягає в тому, щоб дати можливість учасникам оволодіти роботою з мовою SQL в базі даних Oracle для вилучення даних на проміжному рівні.
21 годин
Apache Drill - безлімітний, розподілений, стовпчиковий движок SQL-запиту в пам'яті для Hadoop, NoSQL та інших систем зберігання та зберігання файлів. Сила Apache Drill полягає у його здатності об'єднувати дані з декількох магазинів даних за допомогою одного запиту. Apache Drill підтримує численні бази даних NoSQL та файлові системи, включаючи HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS та локальні файли. Apache Drill - це версія з відкритим вихідним кодом системи Google Dremel, яка доступна як служба інфраструктури під назвою Google BigQuery.

У цій навчальному посібнику учасники вивчатимуть основи Apache Drill, а потім використовують потужність та зручність SQL для інтерактивного запиту великих даних у різних джерелах даних без написання коду. Учасники також дізнаються, як оптимізувати свої дрилі запити для розподіленого виконання SQL.

До кінця цього тренінгу учасники зможуть:

- Виконати "самообслуговування" дослідження на структурованих і напівструктурованих даних на Hadoop
- Запит називається також невідомими даними за допомогою SQL-запитів
- Зрозумійте, як Apache свердла отримує та виконує запити
- Напишіть SQL запити для аналізу різних типів даних, включаючи структуровані дані в Hive, напівструктуровані дані в таблицях HBase або MapR-DB, а також дані, збережені в таких файлах, як Parquet та JSON.
- Використовуйте Apache Drill для виявлення схеми "вручну", уникаючи необхідності складних операцій ETL та схеми
- Інтеграція Apache Drill із BI (Business Intelligence) інструментами, такими як Tableau, Qlikview, MicroStrategy та Excel

Аудиторія

- Аналітик даних
- Дані вчених
- Програмісти SQL

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 годин
Apache Arrow - це рамка обробки даних з відкритим кодом. Його часто використовують разом з іншими інструментами наукових даних для доступу до різних сховищ даних для аналізу. Він добре інтегрується з іншими технологіями, такими як бази даних GPU , бібліотеки та інструменти машинного навчання, механізми виконання та візуалізація даних.

У цій навчальній програмі під керівництвом викладачів на місцях учасники дізнаються, як інтегрувати Apache Arrow з різними рамками Data Science для доступу до даних з різних джерел даних.

Після закінчення цього тренінгу учасники зможуть:

- Встановіть та налаштуйте Apache Arrow у розподіленому кластерному середовищі
- Використовуйте Apache Arrow для доступу до даних з різних джерел даних
- Використовуйте Apache Arrow щоб обійти необхідність у побудові та обслуговуванні складних трубопроводів ETL
- Проаналізуйте дані в різних джерелах даних без необхідності консолідувати їх у централізоване сховище

Аудиторія

- Дані вчених
- Інженери даних

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики

Примітка

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
14 годин
Це інструктор, живий тренінг (на місці або віддалених), спрямований на розробників програмного забезпечення, менеджерів та бізнес-аналітик, які бажають використовувати великі системи даних для зберігання та отримання великих обсягів даних.

До кінця тренінгу учасники зможуть:

- Ефективно запит великих обсягів даних.
- Як Big Data зберігати та отримувати дані в системі
- Використовуйте новітні великі системи даних, доступні
- Дані ввтування з систем даних у системи звітування
- Навчіться писати SQL запити в:

- My SQL
- Postgres
- Hive Мова запитів ( Hive QL/hql)
- RedShift

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і практики.
- Практичний впровадження в середовищі живого Lab.

Параметри налаштування курсу

- Щоб запросити індивідуальну підготовку до цього курсу, будь ласка, зв'яжіться з нами для організації.
35 годин
Прогрес в технологіях і зростаюча кількість інформації перетворюють те, як бізнес ведеться в багатьох галузях, в тому числі уряду. Go рівень генерування даних і цифрового архівування зростає завдяки швидкому зростанню мобільних пристроїв і додатків, розумних датчиків і пристроїв, облачних комп'ютерних рішень та громадянських порталів. Оскільки цифрова інформація розширюється і стає більш складною, управління інформацією, обробка, зберігання, безпека і доступ стають більш складними. Нові інструменти захоплення, пошуку, виявлення та аналізу допомагають організаціям отримати уявлення від своїх неструктурованих даних. Урядовий ринок знаходиться на вершині, усвідомлюючи, що інформація є стратегічним активом, і уряд повинен захищати, використовувати і аналізувати як структуровану, так і неструктуровану інформацію для кращого обслуговування і задоволення вимог місії. У той час як урядові лідери прагнуть розвивати організації, засновані на даних, щоб успішно виконати місію, вони ставлять підстав для спільної залежності між подіями, людьми, процесами та інформацією.

Високоцінні урядові рішення будуть створені з шахрайства найбільш руйнівних технологій:

Мобільні пристрої та додатки облачні послуги Технології соціального бізнесу та мереж Big Data і аналітики

IDC прогнозує, що до 2020 року IT-індустрія досягне 5 трильйонів доларів, приблизно 1,7 трильйонів доларів більше, ніж сьогодні, і що 80% зростання індустрії буде рухатися цими технологіями третьої платформи. У довгостроковій перспективі ці технології будуть ключовими інструментами для вирішення складності зростаючої цифрової інформації. Big Data є одним з розумних індустріальних рішень і дозволяє уряду приймати кращі рішення шляхом прийняття дій на основі зразків, розкритих аналізом великих обсягів даних, пов'язаних і не пов'язаних, структурованих і неструктурованих.

Але досягнення цих досягнень займає набагато більше, ніж просто накопичувати величезні кількості даних.“Зробити сенс тесevolumes Big Data вимагає найсучасніших інструментів і технологій, які можуть аналізувати і витягувати корисні знання з величезних і різноманітних потоків інформації,” Том Каліл і Фен Цхао з Білого дому Бюро науки і технологій політики написав у повідомленні на блозі OSTP.

Білий дім зробив крок, щоб допомогти агентствам знайти ці технології, коли він заснував Національну ініціативу з досліджень і розвитку в 2012 році. Ініціатива включала понад 200 мільйонів доларів, щоб зробити максимум з вибуху Big Data і інструментів, необхідних для його аналізу.

Виклики, які Big Data ставляться, повідомляються так само жахливим, як і його обіцянка заохочує. Ефективне зберігання даних є одним з цих проблем. Як завжди, бюджети суворі, тому агентства повинні мінімізувати ціну на мегабайт зберігання і зберігати дані в простому доступі, щоб користувачі могли отримати її, коли вони хочуть і як їм це потрібно. Збереження величезної кількості даних піднімає виклик.

Аналізувати дані ефективно є ще одним великим викликом. Багато агентств використовують комерційні інструменти, які дозволяють їм протікати через гори даних, спостерігаючи тенденції, які можуть допомогти їм працювати більш ефективно. (Нещодавно проведене дослідження MeriTalk показало, що федеральні керівники інформаційних технологій вважають, що це може допомогти агентствам заощадити понад 500 мільярдів доларів, а також досягти цілей місії.)

Налаштувані інструменти Big Data також дозволяють агентствам вирішувати необхідність аналізу своїх даних. Наприклад, компанія Oak Ridge National Laboratory’ Computational Data Analytics Group зробила свою систему аналізу даних Piranha доступною для інших агентств. Система допомогла медичним дослідникам знайти посилання, яке може попередити лікарів про аортичні аневризми, перш ніж вони страйкують. It’s також використовується для більш всесвітніх завдань, таких як поштовх через résumés, щоб зв'язати кандидатів на роботу з наймаючими менеджерами.
21 годин
Аудиторія

Якщо ви намагаєтеся зрозуміти, з яких даних ви маєте доступ або хочете проаналізувати неструктуровані дані, доступні в мережі (наприклад, Twitter, Linked in і т.д. ...), цей курс для вас.

В основному вона спрямована на тих, хто приймає рішення, і людей, яким необхідно вибрати, які дані варто збирати, і що варто аналізувати.

Вона не спрямована на людей, які налаштовують рішення, однак ці люди матимуть користь від великої картини.

Режим доставки

Під час навчання учасникам будуть представлені робочі приклади переважно відкритих технологій.

Короткі лекції супроводжуються презентацією та простими вправами учасників

Використовується вміст і програмне забезпечення

Усі використовувані програми оновлюються кожного разу під час виконання курсу, тому ми перевіряємо нові версії.

Він охоплює процес від отримання, форматування, обробки та аналізу даних, пояснює, як автоматизувати процес прийняття рішень з машинного навчання.
35 годин
День 1 - забезпечує огляд на високому рівні основних важливих тем тем Big Data . Модуль розділений на серію розділів, кожен з яких супроводжується практичною вправою.

День 2 - вивчає ряд тем, що стосуються практики аналізу та інструментів для середовищ Big Data . Він не потрапляє у деталі щодо впровадження чи програмування, але натомість зберігає висвітлення на концептуальному рівні, зосереджуючи увагу на темах, які дозволяють учасникам розвинути всебічне розуміння загальних функцій аналізу та особливостей, пропонованих рішеннями Big Data .

День 3 - дає огляд основних та найважливіших тематичних областей, що стосуються архітектури платформи Big Data . Він охоплює механізми Big Data необхідні для розробки платформи рішення Big Data та архітектурні варіанти складання платформи обробки даних. Також представлені загальні сценарії, щоб дати базове розуміння того, як зазвичай використовується платформа рішення Big Data .

День 4 - будується на 3 день, вивчаючи складні теми, пов’язані з архітектурою платформи Big Data . Зокрема, вводяться та обговорюються різні архітектурні шари, що складають платформу рішення Big Data , включаючи джерела даних, введення даних, зберігання даних, обробку даних та безпеку.

День 5 - охоплює ряд вправ та проблем, розроблених для перевірки вміння делегатів застосовувати знання з теми, що охоплюються 3 та 4 день.
21 годин
Big Data - це термін, який відноситься до рішень, призначених для зберігання та обробки великих наборів даних. Розроблені компанією Go ogle на початковому етапі, ці рішення Big Data розвивалися та надихали інші подібні проекти, багато з яких доступні як з відкритим вихідним кодом. R є популярною мовою програмування у фінансовій галузі.
14 годин
Коли традиційні технології зберігання не обробляють обсяг даних, які вам потрібно зберігати, є альтернативи. Цей курс намагається направити учасникам те, що є альтернативою для зберігання та аналізу Big Data, і які їхні плюси і мінуси.

Цей курс в основному зосереджений на обговоренні та презентації рішень, хоча практичні вправи доступні за запитом.
14 годин
Курс є частиною набору навичок Data Scientist (Domain: Data and Technology).
35 годин
Великі дані - це настільки об'ємні та складні набори даних, що традиційне програмне забезпечення для обробки даних є недостатнім для боротьби з ними. Великі проблеми даних включають захоплення даних, зберігання даних, аналіз даних, пошук, обмін, передачу, візуалізація, запити, оновлення та конфіденційність інформації.
14 годин
Vespa - це велика обробка та обслуговування двигунів з відкритим кодом, створено компанією Yahoo. Він використовується для відповіді на запити користувачів, надання рекомендацій та надання персонального вмісту та реклами в реальному часі.

Цей навчальний курс, навчальний тренінг для вчителів, представляє проблеми, пов'язані з наданням великомасштабних даних і проходженням учасників шляхом створення програми, яка може обчислювати відповіді на запити користувачів, над великими наборами даних в режимі реального часу.

До кінця цього тренінгу учасники зможуть:

- Використовуйте Vespa для швидкого обчислення даних (зберігання, пошуку, ранжування, упорядкування) при обслуговуванні під час очікування користувача
- Впроваджуйте Vespa в існуючі програми, що включають пошук функцій, рекомендації та персоналізацію
- Інтеграція та розгортання Vespa з існуючими великими системами даних, такими як Hadoop і Storm.

Аудиторія

- Розробники

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 годин
Для того, щоб задовольнити відповідність регуляторів, ППО ( Communication постачальники послуг) можуть підключитися до Big Data Analytics , які не тільки допомагають їм задовольняти відповідність , але в рамках того ж проекту вони можуть підвищити рівень задоволеності клієнтів і тим самим зменшити відтік клієнтів. Насправді, оскільки відповідність пов'язана з якістю обслуговування, пов'язаною з контрактом, будь-яка ініціатива щодо дотримання відповідних вимог покращить «конкурентну перевагу» ДСП. Тому важливо, щоб регулятори мали змогу консультувати / керувати набором аналітичних практик Big Data щодо ДСП, які матимуть взаємну користь між регуляторами та ДСП.

Курс складається з 8 модулів (4 на 1 день та 4 на 2 день)
35 годин
Прогрес технологій та зростаюча кількість інформації перетворюють спосіб ведення правоохоронних органів. Проблеми, які ставлять Big Data є майже такими ж жахливими, як і обіцянки Big Data . Ефективне зберігання даних - одна з цих проблем; ефективно аналізуючи це - інше.

У цьому тренінгу під керівництвом інструкторів учасники навчаться розуму, з яким підходити до технологій Big Data , оцінюватимуть їх вплив на існуючі процеси та політику та застосовуватимуть ці технології з метою виявлення злочинної діяльності та запобігання злочинності. Приклади досліджень правоохоронних організацій у всьому світі будуть вивчені, щоб отримати уявлення про підходи, проблеми та результати їх прийняття.

Після закінчення цього тренінгу учасники зможуть:

- Поєднайте технологію Big Data з традиційними процесами збору даних, щоб скласти разом історію під час розслідування
- Впровадити промислові рішення для зберігання та обробки великих даних для аналізу даних
- Підготуйте пропозицію щодо прийняття найбільш адекватних інструментів та процесів для забезпечення підходу, керованого даними, до кримінального розслідування

Аудиторія

- Спеціалісти з правоохоронних органів із технічним досвідом

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики
14 годин
Це заняття на базі аудиторії вивчить Big Data . Делегати матимуть приклади на комп’ютері та вправи з вивчення конкретних випадків для відповідних засобів великих даних
14 годин
Мета : Цей навчальний курс спрямований на те, щоб допомогти учасникам зрозуміти, чому Big Data змінюють наше життя та як вони змінюють те, як підприємства сприймають нас як споживачів. Дійсно, користувачі великих даних у бізнесі виявляють, що великі дані розкривають велику кількість інформації та уявлень, які означають більший прибуток, зниження витрат та менший ризик. Однак мінус іноді був розчаруванням, коли робиться занадто великий акцент на окремих технологіях і недостатньо зосереджуватися на стовпах управління великими даними.

Під час цього курсу учасники дізнаються, як керувати великими даними, використовуючи три його основи інтеграції даних, управління даними та безпеку даних, щоб перетворити великі дані в реальну ділову цінність. Різні вправи, проведені на прикладі дослідження управління клієнтами, допоможуть учасникам краще зрозуміти основні процеси.
7 годин
This instructor-led, live training in україні (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
7 годин
Корінь Apache — це інтерфейс командного рядка для переміщення даних з реляційної бази даних та Hadoop. Apache Flume — це розподілена програма для керування великими даними. Використовуючи квадратний корінь і Flume, користувачі можуть передавати дані між системами та імпортувати великі дані в архітектури зберігання, такі як Hadoop.

Це інструктор під керівництвом, живий тренінг (на місці або віддалених), спрямований на інженерів програмного забезпечення, які бажають використовувати квадратний корінь і Flume для передачі даних між системами.

До кінця тренінгу учасники зможуть:

- Ковтати великі дані з квадратний корінь і Flume.
- Ковтати дані з кількох джерел даних.
- Переміщення даних з реляційної бази даних до HDFS і Hive.
- Експортування даних із HDFS до реляційної бази даних.

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і практики.
- Практичний впровадження в середовищі живого Lab.

Параметри налаштування курсу

- Щоб запросити індивідуальну підготовку до цього курсу, будь ласка, зв'яжіться з нами для організації.
28 годин
Talend Open Studio для Big Data є відкритим ETL-інструментом для обробки великих даних. Вона включає в себе середовище розвитку для взаємодії з Big Data джерелами і цілями, і виконувати робочі місця без необхідності писати код.

Цей інструктор-під керівництвом, прямий тренінг (онлайн або на сайті) спрямований на технічних осіб, які бажають запустити Talend Open Studio для Big Data для спрощення процесу читання і розтягування через Big Data.

Після закінчення тренінгу учасники зможуть:

Налаштуйте і налаштуйте Talend Open Studio для Big Data. Підключитися до Big Data систем, таких як Cloudera, HortonWorks, MapR, Amazon EMR і Apache. Зрозуміти і встановити великі компоненти даних та підключення Open Studio. Налаштуйте параметри, щоб автоматично генерувати код MapReduce. Використовуйте інтерфейс Open Studio's drag-and-drop для запуску Hadoop робочих місць. Прототип великих газопроводів даних. Автоматичні проекти великої інтеграції даних.

Формат курсу

Інтерактивні лекції та дискусії. Багато випробувань і практики. Використання в робочому середовищі Live-Lab.

Курсові варіанти адаптації

Щоб отримати персоналізовану підготовку для цього курсу, будь ласка, зв'яжіться з нами, щоб організувати.

Last Updated:

Online Big Data courses, Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Знижки на курс

Наразі знижок на курс немає.

Інформаційний бюлетень "Знижки на курси"

Ми поважаємо конфіденційність Ваших персональних даних. Ми зобов'язуємось не передавати Ваші дані іншим особам. Ви завжди можете змінити свої налаштування конфіденційності або повністю відмовитись від підписки.

Наші клієнти

is growing fast!

We are looking to expand our presence in Ukraine!

As a Business Development Manager you will:

  • expand business in Ukraine
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Цей сайт в інших країних / регіонах