курси Big Data

курси Big Data

Місцеві, під керівництвом інструктора живуть великі курси навчання даних починаються з введення в елементарний концепції великих даних, а потім прогресу в мовах програмування і методологій, які використовуються для виконання аналізу даних. Засоби та інфраструктура для ввімкнення великих сховищ даних, розподілених переробки та масштабованості обговорюються, порівнюються і впроваджені в демонстраційних сесій.

Велика підготовка даних доступна як "на місці навчання" або "дистанційне навчання жити". На місці навчання в прямому ефірі може здійснюватися на місцевому рівні в україна або в Неbleprog корпоративні навчальні центри в україна. Дистанційне навчання в прямому ефірі здійснюється шляхом інтерактивного, віддаленого робочого стола.

Nobleпрога-ваш місцевий навчальний провайдер

Machine Translated

Testimonials

★★★★★
★★★★★

Big Data Course Outlines

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Go :

Навчитися працювати з SPSS на рівні незалежності

Адресати:

Аналітики, дослідники, науковці, студенти та всі, хто хоче набути здатність використовувати пакет SPSS і вивчати популярні методи інтелектуального аналізу даних.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) є в режимі реального часу інтегрована логістика даних і проста платформа обробки подій, яка дозволяє рухатися, відстеження та автоматизації даних між системами. Вона написана з використанням потоку на основі програмування і надає веб-інтерфейс користувача для управління datafflow в режимі реального часу.

в цьому інструктор під керівництвом, жити навчання, учасники будуть вивчати основи потоку на основі програмування, як вони розробляють ряд демо-розширень, компонентів і процесорів з використанням Apache NiFi.

до кінця тренінгу учасники зможуть:

- розуміти nifi & #39; з архітектурою і потік даних концепцій.
- розробка розширень, що використовують NiFi та сторонні інтерфейси.
- звичай розвивати свої власні процесори Apache Nifi.
- ковтати і обробляти дані в реальному часі з різних і незвичайних форматів файлів і джерел даних.

Формат курсу

- Інтерактивна лекція та дискусія.
- багато вправ і практики.
- практичної реалізації в живій лабораторній обстановці.

курс параметри налаштування

- щоб запросити індивідуальну підготовку за цей курс, будь ласка, зв'яжіться з нами, щоб організувати.
21 hours
Overview
Apache Drill - безлімітний, розподілений, стовпчиковий движок SQL-запиту в пам'яті для Hadoop, NoSQL та інших систем зберігання та зберігання файлів. Сила Apache Drill полягає у його здатності об'єднувати дані з декількох магазинів даних за допомогою одного запиту. Apache Drill підтримує численні бази даних NoSQL та файлові системи, включаючи HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS та локальні файли. Apache Drill - це версія з відкритим вихідним кодом системи Google Dremel, яка доступна як служба інфраструктури під назвою Google BigQuery.

У цій навчальному посібнику учасники вивчатимуть основи Apache Drill, а потім використовують потужність та зручність SQL для інтерактивного запиту великих даних у різних джерелах даних без написання коду. Учасники також дізнаються, як оптимізувати свої дрилі запити для розподіленого виконання SQL.

До кінця цього тренінгу учасники зможуть:

- Виконати "самообслуговування" дослідження на структурованих і напівструктурованих даних на Hadoop
- Запит називається також невідомими даними за допомогою SQL-запитів
- Зрозумійте, як Apache свердла отримує та виконує запити
- Напишіть SQL запити для аналізу різних типів даних, включаючи структуровані дані в Hive, напівструктуровані дані в таблицях HBase або MapR-DB, а також дані, збережені в таких файлах, як Parquet та JSON.
- Використовуйте Apache Drill для виявлення схеми "вручну", уникаючи необхідності складних операцій ETL та схеми
- Інтеграція Apache Drill із BI (Business Intelligence) інструментами, такими як Tableau, Qlikview, MicroStrategy та Excel

Аудиторія

- Аналітик даних
- Дані вчених
- Програмісти SQL

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
28 hours
Overview
MonetDB - це база даних з відкритим кодом, яка стала піонером технологічного підходу "колона-магазин".

У цьому навчанні під керівництвом інструктора, учасники навчаться навчатися, як використовувати MonetDB і як отримати максимальну користь від неї.

До кінця цього тренінгу учасники зможуть:

- Зрозумійте MonetDB та його функції
- Встановіть і запустіть MonetDB
- Досліджуйте та виконуйте різні функції та завдання в MonetDB
- Прискорення доставки свого проекту шляхом максимального використання можливостей MonetDB

Аудиторія

- Розробники
- Технічні експерти

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
28 hours
Overview
Mem SQL - це вбудована в пам'ять, розподілена система управління SQL даних SQL для хмарних та локальних систем. Це сховище даних у режимі реального часу, яке негайно надає уявлення з живих та історичних даних.

У цьому тренінгу під керівництвом інструкторів учасники вивчать основи Mem SQL для розробки та адміністрування.

Після закінчення цього тренінгу учасники зможуть:

- Зрозумійте ключові поняття та характеристики Mem SQL
- Встановлення, проектування, обслуговування та експлуатація Mem SQL
- Оптимізуйте схеми в Mem SQL
- Поліпшення запитів у Mem SQL
- Виконання тестів у Mem SQL
- Створюйте додатки даних у режимі реального часу за допомогою Mem SQL

Аудиторія

- Розробники
- Адміністратори
- Інженери з експлуатації

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики
28 hours
Overview
Hadoop - це популярна система обробки великих даних. Python - це мова програмування високого рівня, відомий своїм зрозумілим синтаксисом та читаемостью коду.

У цій інструкції під керівництвом живих тренінгів учасники навчаться працювати з Hadoop, MapReduce, Pig і Spark за допомогою Python, коли вони пройдуть кілька прикладів і використовують випадки.

До кінця цього тренінгу учасники зможуть:

- Зрозумійте основні концепції Hadoop, MapReduce, Pig і Spark
- Використовуйте Python з розподіленою файловою системою Hadoop (HDFS), MapReduce, Pig і Spark
- Використовуйте Snakebite для програмного доступу до HDFS у Python
- Використовуйте mrjob, щоб написати завдання MapReduce у Python
- Напишіть програми Spark за допомогою Python
- Розширюйте функціональність свині за допомогою Python UDF
- Керуйте роботами MapReduce та скриптами Pig, використовуючи Luigi

Аудиторія

- Розробники
- ІТ-фахівці

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
21 hours
Overview
Python - мова програмування високого рівня, що славиться чітким синтаксисом та читальністю коду. Spark - це двигун обробки даних, який використовується для запитів, аналізу та перетворення великих даних. PySpark дозволяє користувачам взаємодіяти Spark з Python .

У цьому тренінгу під керівництвом інструкторів учасники навчаться використовувати Python та Spark разом для аналізу великих даних під час роботи над практичними вправами.

Після закінчення цього тренінгу учасники зможуть:

- Дізнайтеся, як використовувати Spark with Python для аналізу Big Data .
- Робота над вправами, що імітують реальні обставини світу.
- Використовуйте різні інструменти та методи для аналізу великих даних за допомогою PySpark .

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики
35 hours
Overview
Прогрес у технологіях та збільшення обсягу інформації перетворюють те, як здійснюється правозастосування. Виклики, які представляють великі дані, майже такі ж складні, як обіцянка Big Data. Ефективне зберігання даних - одне з цих завдань; ефективно аналізуючи це інше.

У цій навчальному посібнику учасники вивчатимуть таку думку, з якою можна буде звертатися до технологій Big Data, оцінити їх вплив на існуючі процеси та політику та впроваджувати ці технології з метою виявлення злочинної діяльності та запобігання злочинності. Будуть вивчені практичні приклади з боку правоохоронних органів у всьому світі, щоб отримати уявлення про підходи, проблеми та результати їх впровадження.

До кінця цього тренінгу учасники зможуть:

- Об'єднайте технологію "Великі дані" із традиційними процесами збору даних, щоб об'єднати історію під час розслідування
- Реалізуйте великі рішення для зберігання та обробки даних для аналізу даних
- Підготуйте пропозицію щодо прийняття найбільш адекватних інструментів та процесів для забезпечення підходу до кримінального розслідування, керованого даними

Аудиторія

- Правоохоронці фахівці з технічної підготовки

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 hours
Overview
Для того, щоб задовольнити відповідність регуляторів, ППО ( Communication постачальники послуг) можуть підключитися до Big Data Analytics , які не тільки допомагають їм задовольняти відповідність , але в рамках того ж проекту вони можуть підвищити рівень задоволеності клієнтів і тим самим зменшити відтік клієнтів. Насправді, оскільки відповідність пов'язана з якістю обслуговування, пов'язаною з контрактом, будь-яка ініціатива щодо дотримання відповідних вимог покращить «конкурентну перевагу» ДСП. Тому важливо, щоб регулятори мали змогу консультувати / керувати набором аналітичних практик Big Data щодо ДСП, які матимуть взаємну користь між регуляторами та ДСП.

Курс складається з 8 модулів (4 на 1 день та 4 на 2 день)
28 hours
Overview
Велику кількість реальних проблем можна описати в термінах графів. Наприклад, веб-графік, графік соціальної мережі, мережевий графік поїзду та мовний графік. Ці графіки, як правило, надзвичайно великі; обробка їх вимагає спеціалізованого набору інструментів і процесів - ці інструменти та процеси можна називати Graph Computing (також відомі як Graph Analytics).

У цій інструкції під керівництвом тренерів, учасники дізнаються про технологічні пропозиції та підходи до реалізації для обробки даних графіка. Мета полягає в тому, щоб визначити об'єкти реального світу, їх характеристики та взаємозв'язки, потім моделювати ці відносини та обробляти їх як дані, використовуючи графічний підхід. Почнемо з широкого огляду та обмежених конкретними інструментами, коли ми просуваємо низку конкретних досліджень, практичних вправ і живих розробок.

До кінця цього тренінгу учасники зможуть:

- Зрозумійте, як графічні дані зберігаються та переміщуються
- Виберіть найкращі рамки для заданого завдання (від графічних баз даних до пакетної обробки)
- Запровадьте Hadoop, Spark, GraphX ​​і Pregel, щоб провести графічне обчислення на багатьох машинах паралельно
- Перегляньте великі проблеми, пов'язані з даними в реальному масштабі, з точки зору графіків, процесів та переходів

Аудиторія

- Розробники

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
21 hours
Overview
Інтелектуальна аналітика - це процес аналізу даних для прогнозування майбутнього. Цей процес використовує дані разом з обробкою даних, статистикою та методами машинного навчання для створення прогнозної моделі для прогнозування майбутніх подій.

У цій навчальній інструкції, учасники навчаться навчатися, як використовувати Matlab для побудови інтелектуальних моделей та застосувати їх до великих вибіркових наборів даних для прогнозування майбутніх подій на основі даних.

До кінця цього тренінгу учасники зможуть:

- Створіть інтелектуальні моделі для аналізу шаблонів історичних та транзакційних даних
- Використовуйте інтелектуальне моделювання для визначення ризиків та можливостей
- Побудуйте математичні моделі, які фіксують важливі тенденції
- Використовуйте дані з пристроїв та бізнес-систем, щоб зменшити витрати, заощадити час або скоротити витрати

Аудиторія

- Розробники
- Інженери
- Експерти домену

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) - це інтегрована логістика даних у режимі реального часу та проста платформа для обробки подій, яка дозволяє переміщувати, відстежувати та автоматизувати дані між системами. Він написаний за допомогою потокового програмування та забезпечує веб-інтерфейс для управління потоками даних у режимі реального часу.

У цьому навчанні на Apache NiFi під керівництвом інструкторів (на місці або на віддаленому рівні) учасники навчаться розгортати Apache NiFi та керувати Apache NiFi у прямому лабораторному середовищі.

Після закінчення цього тренінгу учасники зможуть:

- Встановлення та налаштування Apachi NiFi.
- Джерело, перетворення та управління даними з різних, розподілених джерел даних, включаючи бази даних та великі озера даних.
- Автоматизація потоків даних.
- Увімкнути потокову аналітику.
- Застосовуйте різні підходи до прийому даних.
- Перетворіть Big Data та перегляньте інформацію про бізнес.

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і вправ.
- Ручна реалізація в умовах лабораторії.

Параметри налаштування курсу

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
7 hours
Overview
У цьому тренінгу під керівництвом інструкторів учасники вивчатимуть основні концепції, що стоять за архітектурою MapR Stream, під час розробки програми потокового потоку в реальному часі.

Після закінчення цього тренінгу учасники зможуть створювати додатки для виробників та споживачів для обробки потокових даних у режимі реального часу.

Аудиторія

- Розробники
- Адміністратори

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики

Примітка

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
14 hours
Overview
Apache SolrCloud - це розподілений двигун обробки даних, який полегшує пошук та індексування файлів у розподіленій мережі.

У цій інструкції під керівництвом тренерів, учасники навчаться створювати екземпляр SolrCloud на Amazon AWS.

До кінця цього тренінгу учасники зможуть:

- Зрозумійте особливості SolCloud і як вони співвідносяться з такими, що належать до звичайних шаблонів-підлеглих
- Настроювання централізованого кластера SolCloud
- Автоматизація таких процесів, як спілкування з відсіками, додавання документів до відсіків тощо.
- Використовуйте Zookeeper спільно з SolrCloud для подальшої автоматизації процесів
- Використовуйте інтерфейс для керування звітами про помилки
- Завантаження балансу встановлення SolrCloud
- Налаштуйте SolrCloud для безперервної обробки та відмови

Аудиторія

- Solr Developers
- Менеджери проектів
- Системні адміністратори
- Пошук аналітиків

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
28 hours
Overview
Моделювання сховища даних - це техніка моделювання баз даних, яка забезпечує багаторічне історичне зберігання даних, що походять з декількох джерел. Сховища даних зберігає одну версію фактів або "всі дані, весь час". Його гнучкий, масштабований, послідовний та адаптивний дизайн охоплює найкращі аспекти 3-ї нормальної форми (3NF) та схеми зірок.

У цій інструкції під керівництвом тренерів, учасники навчаться створювати Data Vault.

До кінця цього тренінгу учасники зможуть:

- Зрозумійте архітектуру та концепції дизайну, що належать до Data Vault 2.0, та її взаємодію з Big Data, NoSQL та AI.
- Використовуйте методи збереження даних, щоб уможливити аудит, відстеження та перевірку історичних даних у сховищі даних
- Розробити послідовний та повторюваний процес ETL (витяг, перетворення, завантаження)
- Створення та розгортання високо масштабованих і повторюваних складів

Аудиторія

- Моделювачі даних
- Спеціаліст зі складування даних
- Спеціалісти з бізнес-аналітики
- Інженери-дані
- Адміністратори баз даних

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 hours
Overview
Datameer - це платформа бізнес-аналітики та аналітики, побудована на Hadoop. Це дозволяє кінцевим користувачам легко знаходити, вивчати та корелювати великомасштабні, структуровані, напівструктуровані та неструктуровані дані у зручному для використання спосіб.

У цій інструкції під керівництвом живих тренінгів учасники навчаться використовувати Datameer для подолання крутих навчальних кривої Hadoop, коли вони проходять процедуру встановлення та аналізу ряду великих джерел даних.

До кінця цього тренінгу учасники зможуть:

- Створюйте, перевіряйте та інтерактивно вивчайте озеро даних підприємства
- Доступ до сховищ даних бізнес-аналітики, транзакційних баз даних та інших аналітичних магазинів
- Використовуйте користувальницький інтерфейс електронних таблиць, щоб створювати конвеєрні обробки даних від кінцевого до кінця
- Доступ до попередньо побудованих функцій для вивчення складних зв'язків даних
- Використовуйте майстри перетягування для візуалізації даних та створення інформаційних панелей
- Використовуйте таблиці, діаграми, графіки та карти, щоб аналізувати результати запитів

Аудиторія

- Аналітик даних

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 hours
Overview
Tigon - це платформа обробки потоків з відкритим вихідним кодом, в режимі реального часу, з низькою затримкою, високою пропускною спроможністю, натуральною оптоволоконною лінією, що стоїть на вершині HDFS та HBase за наполегливість. Прикладні програми Tigon використовують такі випадки, як виявлення та аналіз вторгнення в мережу, аналіз ринку соціальних мереж, аналітика місць розташування та рекомендації користувачам у реальному часі.

Під керівництвом інструктора, живого тренінгу, вводять підхід Тигона до поєднання режиму реального часу та пакетної обробки, оскільки він ходить учасників шляхом створення прикладу програми.

До кінця цього тренінгу учасники зможуть:

- Створюйте потужні поточні програми для обробки великих обсягів даних
- Опрацюйте джерела потоку, такі як Twitter і веб-серверів
- Використовуйте Tigon для швидкого приєднання, фільтрації та об'єднання потоків

Аудиторія

- Розробники

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
14 hours
Overview
Apache Ignite - це обчислювальна платформа в пам'яті, яка знаходиться між додатком та рівнем даних для підвищення швидкості, масштабу та доступності.

У цій навчальній програмі під керівництвом інструкторів учасники вивчать принципи стійкого та чистого зберігання в пам'яті під час створення зразкового проекту обчислення в пам'яті.

Після закінчення цього тренінгу учасники зможуть:

- Використовуйте Ignite для пам'яті, збереження на диску, а також чисто розподіленої бази даних в пам'яті.
- Досягніть наполегливості без синхронізації даних до реляційної бази даних.
- Використовуйте Ignite для виконання SQL та розподілених приєднань.
- Підвищення продуктивності, переміщуючи дані ближче до процесора, використовуючи оперативну пам’ять як сховище.
- Розподіліть набори даних по кластері для досягнення горизонтальної масштабованості.
- Інтегруйте Ignite за допомогою процесорів RDBMS, No SQL , Hadoop та машинного навчання.

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і вправ.
- Ручна реалізація в умовах лабораторії.

Параметри налаштування курсу

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
14 hours
Overview
Vespa - це велика обробка та обслуговування двигунів з відкритим кодом, створено компанією Yahoo. Він використовується для відповіді на запити користувачів, надання рекомендацій та надання персонального вмісту та реклами в реальному часі.

Цей навчальний курс, навчальний тренінг для вчителів, представляє проблеми, пов'язані з наданням великомасштабних даних і проходженням учасників шляхом створення програми, яка може обчислювати відповіді на запити користувачів, над великими наборами даних в режимі реального часу.

До кінця цього тренінгу учасники зможуть:

- Використовуйте Vespa для швидкого обчислення даних (зберігання, пошуку, ранжування, упорядкування) при обслуговуванні під час очікування користувача
- Впроваджуйте Vespa в існуючі програми, що включають пошук функцій, рекомендації та персоналізацію
- Інтеграція та розгортання Vespa з існуючими великими системами даних, такими як Hadoop і Storm.

Аудиторія

- Розробники

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
21 hours
Overview
Apache Apex - це натурна платформа YARN, яка об'єднує потокову та пакетну обробку. Він обробляє великі дані в русі таким чином, щоб бути масштабованим, виконавчим, відмовитим, стаціонарним, безпечним, розповсюдженим та легко керувати.

Цей тренінг під керівництвом інструкторів представляє єдину архітектуру обробки потоків Apache Apex та проходить учасників шляхом створення розподіленого додатку за допомогою Apex on Hadoop .

Після закінчення цього тренінгу учасники зможуть:

- Зрозумійте такі конвеєри трубопроводів для обробки даних, як роз'єми для джерел та раковин, загальні перетворення даних тощо
- Створюйте, масштабуйте та оптимізуйте додаток Apex
- Обробляйте потоки даних у режимі реального часу надійно та з мінімальною затримкою
- Використовуйте Apex Core та бібліотеку Apex Malhar для швидкого розвитку додатків
- Використовуйте API Apex для написання та повторного використання існуючого коду Java
- Інтегруйте Apex в інші програми як двигун обробки
- Налаштування, тестування та масштабування програм Apex

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і вправ.
- Ручна реалізація в умовах лабораторії.

Параметри налаштування курсу

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
7 hours
Overview
Alluxio - це система віртуальної розподіленої системи зберігання з відкритим кодом, яка об'єднує різноманітні системи зберігання даних та дозволяє програмам взаємодіяти з даними на швидкості пам'яті. Він використовується такими компаніями, як Intel, Baidu та Alibaba.

У цій інструкції під керівництвом живих тренінгів учасники навчаться використовувати Alluxio для монтажу різних обчислювальних систем із системами зберігання даних та ефективного управління даними з декількох петабайтних масштабів, оскільки вони проходять через створення додатка з Alluxio.

До кінця цього тренінгу учасники зможуть:

- Розробіть програму з Alluxio
- Підключіть великі системи та програми даних, зберігаючи при цьому одне простору імен
- Ефективно витягувати значення з великих даних у будь-якому форматі зберігання
- Покращення продуктивності робочого навантаження
- Розгортати та керувати Alluxio автономним або кластеризованим

Аудиторія

- Дані вченого
- Розробник
- Системний адміністратор

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика
28 hours
Overview
Apache Flink є відкритим вихідним кодом рамки для масштабованих потоку і пакетної обробки даних.

цей інструктор під керівництвом, жива підготовка вводить принципи та підходи за розподіленим потоком і пакетної обробки даних, і ходить учасників через створення в режимі реального часу, передачі даних програми в Apache Flink.

до кінця тренінгу учасники зможуть:

- створити середовище для розробки програм аналізу даних.
- пакет, виконання та моніторинг Flink основі, відмовостійких, потокових даних додатків.
- управління різноманітними навантаження.
- виконувати передові аналітики з використанням Flink мл.
- створити багатовузловий кластер Flink.
- вимірювання та оптимізувати продуктивність.
- інтеграція з різними великими системами даних.
- порівняти Flink можливості з тими, інші великі рамки обробки даних.

Формат курсу

- частина лекції, частина обговорення, вправи і важка практичний практика
14 hours
Overview
Apache Samza - це асинхронна обчислювальна рамка з відкритим кодом, що працює в реальному часі, для обробки потоків. Він використовує Apache Kafka для обміну повідомленнями, а Apache Hadoop YARN - для відмовостійкості, ізоляції процесора, безпеки та управління ресурсами.

Цей тренінг під керівництвом інструкторів представляє принципи, що стоять за системами обміну повідомленнями та обробкою розподілених потоків, під час проходження учасників шляхом створення зразкового проекту на базі Самзи та виконання завдань.

Після закінчення цього тренінгу учасники зможуть:

- Використовуйте Samza для спрощення коду, необхідного для створення та споживання повідомлень.
- Розв’яжіть обробку повідомлень із програми.
- Використовуйте Samza для здійснення асинхронних обчислень майже в реальному часі.
- Використовуйте потокову обробку для забезпечення більш високого рівня абстрагування над системами обміну повідомленнями.

Аудиторія

- Розробники

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики
14 hours
Overview
AI являє собою набір технологій для побудови інтелектуальних систем, здатних розуміти дані та діяльність, що оточує дані, для прийняття "інтелектуальних рішень". Для постачальників Telecom створення додатків та послуг, що використовують AI, може відкрити двері для покращених операцій та обслуговування в таких сферах, як підтримка та оптимізація мережі.

У цьому курсі ми розглядаємо різні технології, що складають AI та набори здібностей, необхідні для їх використання. Протягом всього курсу ми розглядаємо специфічні програми AI в галузі телекомунікацій.

Аудиторія

- Мережеві інженери
- Мережевий операційний персонал
- Телекомунікаційні технічні менеджери

Формат курсу

- Частина лекції, частина дискусії, практичні вправи
7 hours
Overview
Apache Drill - безлімітний, розподілений, стовпчиковий движок SQL-запиту в пам'яті для Hadoop, NoSQL та інших систем зберігання та зберігання файлів. Сила Apache Drill полягає у його здатності об'єднувати дані з декількох магазинів даних за допомогою одного запиту. Apache Drill підтримує численні бази даних NoSQL та файлові системи, включаючи HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS та локальні файли. Apache Drill - це версія з відкритим вихідним кодом системи Google Dremel, яка доступна як служба інфраструктури під назвою Google BigQuery.

У цій навчальному курсі, учасники навчаться, як оптимізувати та налагоджувати Apache Drill, щоб покращити ефективність запитів на дуже великих наборах даних. Курс починається з архітектурного огляду та порівняння функцій між Apache Drill та іншими інтерактивними інструментами аналізу даних. Тоді учасники пройдуть серію інтерактивних практичних сеансів, що включають в себе встановлення, конфігурування, оцінку продуктивності, оптимізацію запитів, розподіл даних та налагодження екземпляра Apache Drill у прямому лабораторному середовищі.

До кінця цього тренінгу учасники зможуть:

- Встановити та налаштувати Apache Drill
- Зрозумійте архітектуру та функції Apache Drill
- Зрозумійте, як Apache свердла отримує та виконує запити
- Оптимізувати запити свердла для розподіленого виконання SQL
- Налагодження Apache Drill

Аудиторія

- Розробники
- Системні адміністратори
- Аналітик даних

Формат курсу

- Частина лекції, частина дискусії, вправи та важка практика

Примітки

- Щоб просити індивідуальне навчання для цього курсу, зв'яжіться з нами, щоб організувати.
14 hours
Overview
Magellan - це механізм розподіленого виконання з відкритим кодом для геопросторової аналітики великих даних. Реалізований поверх Apache Spark , він розширює Spark SQL і забезпечує реляційну абстракцію для геопросторової аналітики.

Цей тренінг під керівництвом викладачів знайомить із концепціями та підходами до впровадження геопросторової аналітики та прогулянок учасників шляхом створення програми прогнозного аналізу за допомогою Magellan on Spark.

Після закінчення цього тренінгу учасники зможуть:

- Ефективно запитувати, аналізувати та приєднуватися до геопросторових наборів даних у масштабі
- Впроваджуйте геопросторові дані в додатках бізнес-аналітики та прогнозної аналітики
- Використовуйте просторовий контекст для розширення можливостей мобільних пристроїв, датчиків, журналів та носіння

Формат курсу

- Інтерактивна лекція та дискусія.
- Багато вправ і вправ.
- Ручна реалізація в умовах лабораторії.

Параметри налаштування курсу

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
14 hours
Overview
Apache Arrow - це рамка обробки даних з відкритим кодом. Його часто використовують разом з іншими інструментами наукових даних для доступу до різних сховищ даних для аналізу. Він добре інтегрується з іншими технологіями, такими як бази даних GPU , бібліотеки та інструменти машинного навчання, механізми виконання та візуалізація даних.

У цій навчальній програмі під керівництвом викладачів на місцях учасники дізнаються, як інтегрувати Apache Arrow з різними рамками Data Science для доступу до даних з різних джерел даних.

Після закінчення цього тренінгу учасники зможуть:

- Встановіть та налаштуйте Apache Arrow у розподіленому кластерному середовищі
- Використовуйте Apache Arrow для доступу до даних з різних джерел даних
- Використовуйте Apache Arrow щоб обійти необхідність у побудові та обслуговуванні складних трубопроводів ETL
- Проаналізуйте дані в різних джерелах даних без необхідності консолідувати їх у централізоване сховище

Аудиторія

- Дані вчених
- Інженери даних

Формат курсу

- Частина лекції, частина дискусії, вправи та важкі практичні практики

Примітка

- Щоб подати заявку на індивідуальне навчання для цього курсу, будь ласка, зв'яжіться з нами, щоб домовитись.
7 hours
Overview
This instructor-led, live training (onsite or remote) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.

Upcoming Big Data Courses

Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Course Discounts

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Some of our clients

is growing fast!

We are looking to expand our presence in Ukraine!

As a Business Development Manager you will:

  • expand business in Ukraine
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!