Projektowanie aplikacji LLM. Holistyczne podejście do dużych modeli językowych Tychy

Duże modele językowe przeniknęły do wielu dziedzin techniki uważa się je za skuteczne narzędzia do rozwiązywania szerokiej gamy problemów. Coraz więcej przedsiębiorstw korzysta z ich potencjału w celu własnego rozwoju. Jednak przekształcenie prototypów w funkcjonalne aplikacje bywa złożone i …

od 53,40 Najbliżej: 12 km

Liczba ofert: 14

Oferta sklepu

Opis

Duże modele językowe przeniknęły do wielu dziedzin techniki uważa się je za skuteczne narzędzia do rozwiązywania szerokiej gamy problemów. Coraz więcej przedsiębiorstw korzysta z ich potencjału w celu własnego rozwoju. Jednak przekształcenie prototypów w funkcjonalne aplikacje bywa złożone i skomplikowane. To wyjątkowe opracowanie zawiera wszystkie ważne koncepcje w dziedzinie LLM! Madhav Singhal, CEO, AutoComputer W tej praktycznej książce opisano wszelkie niezbędne narzędzia, techniki i rozwiązania, których potrzebujesz do tworzenia użytecznych produktów wykorzystujących potęgę modeli językowych. Na początku zdobędziesz wiedzę o budowie modelu językowego. Następnie poznasz różne sposoby zastosowania modeli językowych, czy to poprzez bezpośrednie zapytania do modelu, czy też poprzez jego dostrajanie. Zrozumiesz ograniczenia LLM, takie jak halucynacje i problemy z rozumowaniem, a także dowiesz się, jak sobie z nimi poradzić. Znajdziesz tu również omówienie paradygmatów zastosowań, takich jak generowanie wspomagane wyszukiwaniem (RAG) czy agenty. Z tą książką: przygotujesz zbiory danych do treningu i dostrajania modeli zrozumiesz architekturę transformera zaadaptujesz wstępnie wytrenowane modele do własnych potrzeb poznasz skuteczne techniki optymalizacji i adaptacji dziedzinowej dowiesz się, jak integrować modele językowe z zewnętrznymi środowiskami i źródłami danych Gorąco polecam tę książkę! Megan Risdal, Kaggle (Google) To mistrzowski kurs budowania zaawansowanych systemów AI! Jay Alammar, autor książek Spis treści: Przedmowa Część I. Składniki modeli językowych 1. Wprowadzenie Definicja LLM-ów Krótka historia LLM-ów Początki Era współczesnych LLM-ów Wpływ LLM-ów Zastosowanie modeli językowych w przedsiębiorstwach Prompty Podpowiadanie bez przykładów (ang. zero-shot) Podpowiadanie z kilkoma przykładami (ang. few-shot) Metoda łańcucha myśli Łańcuchy promptów Prompty adwersaryjne Korzystanie z modeli językowych za pośrednictwem API Mocne strony i ograniczenia modeli językowych Budowanie pierwszego prototypowego czatbota Od koncepcji do wdrożenia Podsumowanie 2. Dane do treningu wstępnego Składniki LLM-a Wymagania dotyczące danych do treningu wstępnego Popularne zbiory danych do treningu wstępnego Syntetyczne dane do treningu wstępnego Wstępne przetwarzanie danych treningowych Filtrowanie i oczyszczanie danych Wybieranie wartościowych dokumentów Deduplikacja Usuwanie danych osobowych Dekontaminacja zbioru treningowego Wpływ danych do treningu wstępnego na wykonywanie docelowych zadań Problemy stronniczości i sprawiedliwości w zbiorach danych do treningu wstępnego Podsumowanie 3. Słownik i tokenizacja Słownik Tokenizatory Potok tokenizacji Normalizacja Tokenizacja wstępna Tokenizacja Kodowanie par bajtów WordPiece Tokeny specjalne Podsumowanie 4. Architektury i cele uczenia Wprowadzenie Reprezentowanie znaczenia Architektura transformera Samouwaga Kodowanie pozycyjne Sieci z propagacją w przód Normalizacja warstw Funkcje straty Wewnętrzna ewaluacja modelu Szkielety transformera Architektury enkoderowe Architektury enkoderowo-dekoderowe Architektury dekoderowe Kombinacja ekspertów Cele uczenia Pełne modelowanie języka Prefiksowe modelowanie języka Maskowane modelowanie języka Które cele uczenia są lepsze? Wstępne trenowanie modeli Podsumowanie Część II. Używanie modeli językowych 5. Dostosowywanie modeli językowych do własnych potrzeb Krajobraz modeli językowych Kim są dostawcy LLM-ów? Odmiany modeli Otwarte modele językowe Jak wybrać LLM odpowiedni do określonego zadania? LLM-y otwarte a zastrzeżone Ocena LLM-ów Wczytywanie modeli językowych Hugging Face Accelerate Ollama API wnioskowania w LLM-ach Strategie dekodowania Dekodowanie zachłanne Wyszukiwanie wiązkowe Próbkowanie top-k Próbkowanie top-p Wnioskowanie z użyciem LLM-ów Wyniki ustrukturyzowane Debugowanie i interpretowanie modeli Podsumowanie 6. Dostrajanie Potrzeba dostrajania Dostrajanie - pełny przykład Parametry algorytmów uczenia się Parametry optymalizacji pamięci Parametry regularyzacji Rozmiar partii Dostrajanie efektywne parametrycznie Praca ze zmniejszoną precyzją Łączenie wszystkiego w całość Zbiory danych do dostrajania Wykorzystanie ogólnodostępnych zbiorów danych do dostrajania instrukcyjnego Zbiory danych do dostrajania instrukcyjnego generowane przez LLM-y Podsumowanie 7. Zaawansowane techniki dostrajania modeli Ciągły trening wstępny Przypominanie (pamięć) Rozszerzanie parametrów Dostrajanie efektywne parametrycznie Dodawanie nowych parametrów Metody podzbiorowe Łączenie wielu modeli Zespalanie modeli Fuzja modeli Scalanie adapterów Podsumowanie 8. Trening dostosowawczy i rozumowanie Definicja treningu dostosowawczego Uczenie przez wzmacnianie Typy informacji zwrotnych od człowieka Przykład RLHF Halucynacje Ograniczanie halucynacji Spójność wewnętrzna Łańcuch działań Recytacja Metody próbkowania do zapobiegania halucynacjom Dekodowanie przez kontrastowanie warstw Halucynacje kontekstowe Halucynacje spowodowane nieistotnymi informacjami Rozumowanie Rozumowanie dedukcyjne Rozumowanie indukcyjne Rozumowanie abdukcyjne Rozumowanie zdroworozsądkowe Indukowanie rozumowania w LLM-ach Weryfikatory poprawiające rozumowanie Obliczenia w czasie wnioskowania Dostrajanie pod kątem rozumowania Podsumowanie 9. Optymalizacja wnioskowania Wyzwania związane z wnioskowaniem Techniki optymalizacji wnioskowania Techniki ograniczające zużycie mocy obliczeniowej Buforowanie kluczy i wartości Wczesne kończenie Destylacja wiedzy Techniki przyspieszające dekodowanie Dekodowanie spekulacyjne Dekodowanie równoległe Techniki zmniejszające zapotrzebowanie na pamięć Kwantyzacja symetryczna Kwantyzacja asymetryczna Podsumowanie Część III. Paradygmaty zastosowań LLM-ów 10. Łączenie LLM-ów z narzędziami zewnętrznymi Modele interakcji z LLM-ami Podejście pasywne Podejście jawne Podejście autonomiczne Definicja agenta Agentowy przepływ pracy Komponenty systemu agentowego Modele Narzędzia Magazyny danych Prompt pętli agenta Zabezpieczenia i weryfikatory Oprogramowanie do koordynowania agentów Podsumowanie 11. Uczenie reprezentacji i osadzenia Wprowadzenie do osadzeń Wyszukiwanie semantyczne Miary podobieństwa Dostrajanie modeli osadzeń Modele bazowe Zbiór danych treningowych Funkcje straty Osadzenia instrukcyjne Optymalizacja rozmiaru osadzenia Osadzenia matrioszkowe Osadzenia binarne i całkowitoliczbowe Kwantyzacja iloczynowa Segmentacja tekstu Segmentacja z przesuwającym się oknem Segmentacja uwzględniająca metadane Segmentacja uwzględniająca układ Segmentacja semantyczna Segmentacja późna Wektorowe bazy danych Interpretowanie osadzeń Podsumowanie 12. Generowanie wspomagane wyszukiwaniem Zalety RAG Typowe scenariusze z RAG Kiedy wyszukiwać dane? Potok RAG Przeformułowywanie Wyszukiwanie Ponowne szeregowanie Dopracowywanie Wstawianie Generowanie Zarządzanie pamięcią z użyciem RAG Wybieranie kontekstowych przykładów treningowych z użyciem RAG Trenowanie modeli z użyciem RAG Ograniczenia metody RAG RAG a długi kontekst RAG a dostrajanie modelu Podsumowanie 13. Wzorce projektowe i architektura systemów Architektury wielomodelowe Kaskady LLM-ów Routery LLM wyspecjalizowane w konkretnych zadaniach Paradygmaty programistyczne DSP-y LMQL Podsumowanie O autorze: Suhas Pai jest współzałożycielem i dyrektorem Hudson Labs, startupu z sektora AI i fintech wspieranego przez Y Combinator. Przyczynił się do rozwoju kilku modeli językowych o otwartym kodzie źródłowym. Współkierował grupą roboczą do spraw prywatności w projekcie BigScience, w ramach którego powstał model BLOOM.

Specyfikacja

Podstawowe informacje

Autor
  • Suhas Pai
Wybrane wydawnictwa
  • Helion
Okładka
  • Miękka
Format
  • 235x165mm
Rok wydania
  • 2026
Ilość stron
  • 328
Tematyka
  • Programowanie
ISBN
  • 9788328931114