• TopKursy - РЕДКИЕ Удаленные КУРСЫ!

    Эксклюзивные материалы, недоступные на других источниках.

    Откройте доступ к уникальным знаниям прямо сейчас!

    Подробнее

Скоро! Super Study Guide: Transformers & Large Language Models [Afshine Amidi, Shervine Amidi]

Статус
В этой теме нельзя размещать новые ответы.
EGround

EGround

Редактор
Сообщения
24.326
Реакции
127

Складчина: Super Study Guide: Transformers & Large Language Models [Afshine Amidi, Shervine Amidi]​


язык — английский

2024-08-23_155028.jpg


Эта книга представляет собой краткое и иллюстрированное руководство для тех, кто хочет понять внутреннюю работу больших языковых моделей в контексте интервью, проектов или для удовлетворения собственного любопытства.

Она разделен на 5 частей:
Основы : введение в нейронные сети и важные концепции глубокого обучения для обучения и оценки
Встраивание : алгоритмы токенизации, встраивание слов (word2vec) и встраивание предложений (RNN, LSTM, GRU)
Трансформеры : мотивация механизма самовосприятия, подробный обзор архитектуры кодера-декодера и связанных с ней вариаций, таких как BERT, GPT и T5, а также советы и рекомендации по ускорению вычислений.
Большие языковые модели : основные методы настройки моделей на основе Transformer, такие как быстрое проектирование, (параметрически эффективная) тонкая настройка и настройка предпочтений
Приложения : наиболее распространенные проблемы, включая извлечение настроений, машинный перевод, генерацию дополненной поисковой информации и многое другое.

Спойлер: Оригинал описания: This book is a concise and illustrated guide for anyone who wants to understand the inner workings of large language models in the context of interviews, projects or to satisfy their own curiosity.

It is divided into 5 parts:

Foundations: primer on neural networks and important deep learning concepts for training and evaluation
Embeddings: tokenization algorithms, word-embeddings (word2vec) and sentence embeddings (RNN, LSTM, GRU)
Transformers: motivation behind its self-attention mechanism, detailed overview on the encoder-decoder architecture and related variations such as BERT, GPT and T5, along with tips and tricks on how to speed up computations
Large language models: main techniques to tune Transformer-based models, such as prompt engineering, (parameter efficient) finetuning and preference tuning
Applications: most common problems including sentiment extraction, machine translation, retrieval-augmented generation and many more

Мягкая обложка
Скан, pdf

Цена: 37,99$ ~3500 руб + доставка


Материал «Super Study Guide: Transformers & Large Language Models [Afshine Amidi, Shervine Amidi]», возможно, скоро появится на EGROUND.
Воспользуйтесь поиском, может быть, он уже опубликован.
 
Статус
В этой теме нельзя размещать новые ответы.
Сверху Снизу