Working knowledge of python
TensorFlow ™ - бібліотека програмного забезпечення з відкритим кодом для чисельного обчислення з використанням графіків потоку даних.
SyntaxNet - це структура обробки природних мов для нервової мережі для TensorFlow.
Word2Vec використовується для вивчення векторних уявлень про слова, що називаються "вклади словами". Word2vec - це особливо обчислювально ефективна прогностична модель для вивчення вкладок слів із вихідного тексту. Він поставляється у двох ароматах - моделі безперервного сумок (CBOW) та моделі Skip-Gram (розділи 3.1 та 3.2 у Миколова та ін.).
Використовується в тандемі, SyntaxNet та Word2Vec дозволяють користувачам створювати моделі "Досліджено вбудовування" з введення природної мови.
Аудиторія
Цей курс орієнтований на розробників та інженерів, які мають намір працювати з моделями SyntaxNet та Word2Vec у своїх графіках TensorFlow.
Після закінчення курсу делегати:
- зрозуміти структуру та механізми розгортання TensorFlow
- бути в змозі виконувати установки / виробничого середовища / архітектури завдання та конфігурацію
- бути в змозі оцінити якість коду, виконувати налагодження, моніторинг
- бути в змозі впроваджувати передові технології виробництва, такі як тренувальні моделі, вбудовування термінів, побудова графіків та реєстрації
Machine Translated
Getting Started
TensorFlow Basics
- Creation, Initializing, Saving, and Restoring TensorFlow variables
- Feeding, Reading and Preloading TensorFlow Data
- How to use TensorFlow infrastructure to train models at scale
- Visualizing and Evaluating models with TensorBoard
TensorFlow Mechanics 101
- Prepare the Data
- Download
- Inputs and Placeholders
- Build the Graph
- Train the Model
- The Graph
- The Session
- Train Loop
- Evaluate the Model
- Build the Eval Graph
- Eval Output
Advanced Usage
- Threading and Queues
- Distributed TensorFlow
- Writing Documentation and Sharing your Model
- Customizing Data Readers
- Using GPUs
- Manipulating TensorFlow Model Files
TensorFlow Serving
- Introduction
- Basic Serving Tutorial
- Advanced Serving Tutorial
- Serving Inception Model Tutorial
Getting Started with SyntaxNet
- Parsing from Standard Input
- Annotating a Corpus
- Configuring the Python Scripts
Building an NLP Pipeline with SyntaxNet
- Obtaining Data
- Part-of-Speech Tagging
- Training the SyntaxNet POS Tagger
- Preprocessing with the Tagger
- Dependency Parsing: Transition-Based Parsing
- Training a Parser Step 1: Local Pretraining
- Training a Parser Step 2: Global Training
Vector Representations of Words
- Motivation: Why Learn word embeddings?
- Scaling up with Noise-Contrastive Training
- The Skip-gram Model
- Building the Graph
- Training the Model
- Visualizing the Learned Embeddings
- Evaluating Embeddings: Analogical Reasoning
- Optimizing the Implementation