Witajcie w świecie, gdzie każda firma nagle stała się “AI-first”, każdy startup ma w nazwie “neural” albo “.ai”, a twój lodówka prawdopodobnie za chwilę zacznie cię pouczać o zdrowiu. Sztuczna inteligencja przeszła drogę od science fiction do buzzwordu używanego przez każdego CEO, który chce podnieść wycenę swojej firmy o kolejne 20%.
Ale zanim zaczniecie wrzucać do prezentacji terminy typu “generatywna transformacja neuronowa w chmurze”, warto wiedzieć, co one faktycznie oznaczają. Ten słowniczek to wasz lifeline w morzu hype’u – od AGI (które albo uratuje, albo zniszczy ludzkość, w zależności od tego, kogo spytacie) po zero-shot learning (które brzmi jak technika picia, ale niestety nie jest).
Przygotujcie się na podróż przez dżunglę akronimów, gdzie każdy termin brzmi jakby został wygenerowany przez AI próbującą wyglądać na inteligentną
AGI (Artificial General Intelligence)
Święty Graal AI – inteligencja na ludzkim poziomie, zdolna do rozumienia, uczenia się i wykonywania dowolnego zadania intelektualnego. Obecnie przedmiot debat, czy powstanie za 5, 50 czy może 500 lat. Połowa ekspertów mówi “wkrótce”, druga połowa “nigdy”, wszyscy natomiast zgodni co do tego, że będzie to “interesujące”.
Algorithm (Algorytm)
Zestaw instrukcji dla komputera, jak rozwiązać problem. W kontekście AI często używane jako wymówka: “To nie nasza wina, to algorytm tak zdecydował”. Współczesny odpowiednik “komputer się zawiesił” jako uniwersalnego wytłumaczenia.
Alignment Problem
Problem dostrojenia AI do ludzkich wartości i celów. Brzmi prosto, dopóki nie uświadomisz sobie, że ludzie nie potrafią się zgodzić co do własnych wartości od kilku tysięcy lat.
Anthropic
Firma AI założona przez byłych pracowników OpenAI, skupiona na bezpieczeństwie AI. Twórcy Claude’a (tak, tego AI, z którym właśnie rozmawiasz). Nazwa od “anthropic principle” – filozoficznego konceptu, który brzmi mądrze na koktajlach.
API (Application Programming Interface)
Sposób, w jaki różne programy rozmawiają ze sobą. W świecie AI to głównie sposób, w jaki Twoja aplikacja może poprosić GPT-4 o napisanie tweeta, który brzmi jak napisał go człowiek (spoiler: wszyscy i tak poznają różnicę).
Backpropagation
Matematyczna magia, która pozwala sieciom neuronowym uczyć się na błędach. Działając wstecz przez sieć, dostosowuje wagi, żeby zmniejszyć error. To tak jakby nauczyciel sprawdzał twoją pracę domową i mówił “nie, tutaj się pomyliłeś”, tylko że milion razy na sekundę.
BERT (Bidirectional Encoder Representations from Transformers)
Model Google’a do rozumienia języka, który czyta tekst w obu kierunkach jednocześnie. Nazwany na cześć postaci z “Ulicy Sezamkowej”, co jest jedną z nielicznych zabawnych rzeczy w dokumentacji technicznej.
Bias (Uprzedzenie)
Systematyczne przekrzywienie w danych lub decyzjach AI. Problem powstaje, gdy AI uczy się na danych stworzonych przez ludzi, którzy – niespodzianka – sami mają uprzedzenia. Kto by pomyślał?
Black Box Problem Sytuacja, gdy AI podejmuje decyzje, ale nikt (włącznie z jego twórcami) nie rozumie dokładnie jak i dlaczego. Szczególnie problematyczne w medycynie i prawie. “Zaufaj mi, to deep learning” to kiepska obrona w sądzie.
ChatGPT Najbardziej znany chatbot AI stworzony przez OpenAI. Odpowiedzialny za zmuszenie milionów studentów do nauki, jak pisać prompty zamiast eseje, oraz za pół internetu udającego, że ich content nie został wygenerowany przez AI.
Claude
Model AI stworzony przez Anthropic (cześć!). Zaprojektowany z naciskiem na bezpieczeństwo i pomocność. Imię od Claude’a Shannona, ojca teorii informacji, więc przynajmniej ma klasę w nazewnictwie.
CNN (Convolutional Neural Network) Typ sieci neuronowej szczególnie dobry w przetwarzaniu obrazów. Wykorzystywany w rozpoznawaniu twarzy, autonomicznych pojazdach i aplikacjach, które mówią ci, jaka to rasa psa (zazwyczaj mylą się).
Dalle / DALL-E Generator obrazów AI od OpenAI. Nazwa to gra słów łącząca Salvadora Dalí i Wall-E. Odpowiedzialny za setki tysięcy obrazków “kot w stylu Van Gogha” zapełniających internet.
Data Augmentation Technika zwiększania zbioru danych treningowych przez tworzenie zmodyfikowanych wersji istniejących danych. W praktyce: obracanie, przycinanie i przekształcanie tego samego zdjęcia kota 1000 razy i udawanie, że to 1000 różnych kotów.
Deep Learning Uczenie maszynowe wykorzystujące głębokie sieci neuronowe z wieloma warstwami. “Deep” nie oznacza mądrego – odnosi się do liczby warstw. Ale brzmi imponująco w CV.
Diffusion Model
Typ modelu generatywnego, który tworzy obrazy stopniowo “odszumiając” losowy szum. Technika stojąca za Stable Diffusion i Midjourney. Działa jak artysta malujący obraz od ogólnych kształtów do szczegółów, tylko że w odwrotnej kolejności i statystycznie.
Embeddings Sposób reprezentowania słów, zdań lub innych danych jako wektorów liczbowych w wielowymiarowej przestrzeni. Brzmi skomplikowanie, bo jest. W praktyce pozwala komputerowi rozumieć, że “król” – “mężczyzna” + “kobieta” ≈ “królowa”.
Emergent Behavior Nieoczekiwane zdolności pojawiające się w dużych modelach AI, których nie zaprogramowano celowo. Albo fascynujący fenomen pokazujący moc skali, albo oznaka nadchodzącej apokalipsy – wybór należy do Ciebie.
Encoder-Decoder Architektura AI składająca się z dwóch części: encoder koduje dane wejściowe, decoder dekoduje je w output. Używane w tłumaczeniu maszynowym i wszędzie tam, gdzie trzeba przekształcić jedno w drugie.
Explainable AI (XAI) Próba sprawienia, żeby AI mogło wyjaśnić swoje decyzje w sposób zrozumiały dla ludzi. Wyzwanie na miarę tłumaczenia kwantowej fizyki przedszkolakowi, ale niezbędne w aplikacjach medycznych i prawnych.
Few-Shot Learning Zdolność modelu do uczenia się nowych zadań z zaledwie kilku przykładów. To jak nauczyć kogoś języka pokazując mu pięć słów – nie brzmi możliwie, ale GPT-4 jakoś to ogarnia.
Fine-tuning Proces dostrajania wytrenowanego modelu do konkretnego zadania. Jak uczenie olimpijczyka nowej dyscypliny – podstawy ma, trzeba tylko wyspecjalizować.
Foundation Model Duży, uniwersalny model wytrenowany na ogromnych ilościach danych, który może być dostosowany do różnych zadań. GPT, BERT, Claude – wszyscy ci cool kids są foundation models.
GAN (Generative Adversarial Network) Dwa modele AI walczące ze sobą: jeden generuje fałszywe dane, drugi próbuje je wykryć. Jak fałszerz i detektyw w wiecznej grze w kotka i myszkę, tylko że generują deepfake’i.
Gemini Model AI Google’a (poprzednio znany jako Bard). Multimodalny i potężny, ale ciągle czekający na ten moment, w którym wszyscy przestaną mówić tylko o ChatGPT.
Generative AI AI zdolne do tworzenia nowych treści – tekstów, obrazów, muzyki, kodu. Odpowiedzialne za największy boom AI w 2023-2024 oraz za połowę contentów w internecie wyglądających teraz podejrzanie podobnie.
GPT (Generative Pre-trained Transformer) Architektura modelu językowego od OpenAI. “Pre-trained” oznacza, że model najpierw uczy się na całym internecie, zanim zajmie się Twoim konkretnym zadaniem. Bierz z tego, co chcesz.
GPU (Graphics Processing Unit) Karty graficzne pierwotnie zaprojektowane do gier, które okazały się idealne do trenowania AI. Rynek GPU to obecnie pole bitwy między gamersami a firmami AI, z cenami przyprawiającymi o zawrót głowy obie strony.
Gradient Descent Algorytm optymalizacji używany w trenowaniu modeli AI. Jak zjeżdżanie w dół góry w gęstej mgle, próbując znaleźć najniższy punkt – tylko matematycznie i w 10,000 wymiarach.
Hallucination Gdy AI generuje informacje, które brzmią przekonująco, ale są całkowicie zmyślone. Eufemizm dla “model skłamał z pełną pewnością siebie”. Główny powód, dla którego nie powinieneś ufać AI w kwestiach faktów bez weryfikacji.
Hyperparameter Parametr ustawiany przed treningiem modelu, który wpływa na proces uczenia. Jak pokrętła w studiu nagraniowym – teoretycznie wiesz co robią, praktycznie manipulujesz nimi losowo, aż brzmi dobrze.
Inference Proces wykorzystywania wytrenowanego modelu do robienia predykcji. Trening to nauka, inference to egzamin. Tylko że ten egzamin odbywa się miliony razy dziennie.
LLM (Large Language Model) Duży model językowy wytrenowany na ogromnych ilościach tekstu. GPT-4, Claude, Gemini – wszyscy są LLM-ami. “Large” odnosi się do liczby parametrów (miliardy), nie do ego (chociaż…).
LoRA (Low-Rank Adaptation) Efektywna metoda fine-tuningu dużych modeli. Jak dostrajanie silnika samochodu wyścigowego poprzez wymianę kilku części zamiast budowania go od nowa.
Machine Learning (ML) Dziedzina AI skupiona na tworzeniu systemów, które uczą się z danych bez bycia explicite zaprogramowanymi. Podstawa większości współczesnego AI i powód, dla którego data scientist to najbardziej sexy zawód XXI wieku (podobno).
Midjourney Jeden z popularniejszych generatorów obrazów AI. Działa przez Discorda, co jest dziwne, ale obrazki ma ładne. Ulubione narzędzie artystów cyfrowych i ludzi tworzących clickbaitowe thumbnails na YouTube.
Mixture of Experts (MoE) Architektura wykorzystująca wiele wyspecjalizowanych modeli (“ekspertów”), gdzie system decyduje, którego użyć dla danego zadania. Jak zespół specjalistów zamiast jednego ogarniacza wszystko.
Multimodal AI AI zdolne do przetwarzania i rozumienia różnych typów danych – tekstu, obrazów, dźwięku, video. GPT-4V, Gemini – to multimodalne potwory, które widzą Twoje screenshoty i rozumieją o co chodzi.
Neural Network (Sieć Neuronowa) System AI inspirowany ludzkim mózgiem, składający się z połączonych węzłów (“neuronów”). “Inspirowany” to kluczowe słowo – podobnie jak samolot jest inspirowany ptakiem, ale nie macha skrzydłami.
NLP (Natural Language Processing) Dziedzina AI zajmująca się rozumieniem i generowaniem ludzkiego języka. Odpowiedzialna za to, że możesz rozmawiać z AI i za to, że autocorrect ciągle zmienia Twoje przekleństwa na “kochanie”.
One-Shot Learning Zdolność do nauczenia się czegoś z jednego przykładu. “Pokaż mi raz jak to zrobić” poziom uczenia, który ludzie osiągają po latach, a AI… czasami też po latach.
OpenAI Firma AI która zaczęła jako non-profit mający “zapewnić, że AGI przyniesie korzyści całej ludzkości”, a skończyła jako firma warta miliardy dolarów z Microsoftem jako głównym inwestorem. Plot twist roku 2023.
Overfitting Gdy model zbyt dobrze nauczy się danych treningowych i nie radzi sobie z nowymi danymi. Jak student, który pamięta każdą odpowiedź z przykładowych testów, ale nie rozumie materiału.
Parameters (Parametry) Wagi w sieci neuronowej, które są dostrajane podczas treningu. LLM-y mają miliardy parametrów. Więcej parametrów = zazwyczaj lepszy model, ale także = droższy trening i potrzeba więcej GPU.
Prompt Instrukcja lub zapytanie podawane do AI. Umiejętność pisania dobrych promptów (“prompt engineering”) to nowa supermoc, która zastąpiła umiejętność googl’owania.
Prompt Engineering Sztuka formułowania promptów, żeby AI robił dokładnie to, czego chcesz. Połączenie psychologii, lingwistyki i przekonywania algorytmu, że naprawdę myślisz serio tym razem.
RAG (Retrieval-Augmented Generation) Technika łącząca wyszukiwanie informacji z generowaniem tekstu. AI najpierw szuka relevantnych danych, potem używa ich do odpowiedzi. Jak student używający Google’a podczas egzaminu, tylko legalnie.
Reinforcement Learning (RL) Typ uczenia maszynowego, gdzie AI uczy się przez trial and error, otrzymując nagrody za dobre decyzje. Jak trenowanie psa, tylko że pies jest algorytmem i przysmak jest matematyczny.
RLHF (Reinforcement Learning from Human Feedback) Technika używana do trenowania chatbotów, gdzie ludzie oceniają odpowiedzi AI. Dzięki temu ChatGPT jest pomocny i grzeczny, zamiast być trollem internetowym.
Scaling Laws Obserwacja, że większe modele, więcej danych i więcej mocy obliczeniowej = lepsze wyniki. Prosto, ale kosztownie. OpenAI, Google i Anthropic to wyścig “kto ma więcej GPU”.
Self-Attention Mechanizm w Transformerach, który pozwala modelowi skupić się na różnych częściach inputu. Jak highlightery w tekście, tylko że algorytm sam decyduje co jest ważne.
Stable Diffusion Open-source generator obrazów AI. “Stable” w nazwie, “chaotyczny” w rezultatach. Potężne narzędzie, ale wymaga umiejętności promptowania na poziomie czarnoksiężnika.
Synthetic Data Dane wygenerowane sztucznie, często przez AI, używane do trenowania innych AI. To jak Matrix, tylko że dla datasettów. Budzi pytania o to, czy AI ucząc się na danych z AI nie zaczną degenerować (spoiler: tak, zaczynają).
Temperature Parametr kontrolujący losowość odpowiedzi AI. Niska temperatura = przewidywalne, bezpieczne odpowiedzi. Wysoka temperatura = kreatywne, ale czasem dziwaczne rezultaty. Jak z ostrością curry – dostosuj do gustu.
Token Podstawowa jednostka tekstu dla LLM. Może być słowem, częścią słowa lub znakiem. Modele mają limity tokenów, cennik jest za tokeny, wszystko kręci się wokół tokenów. To waluta świata AI.
Training Data Dane używane do uczenia modelu AI. Jakość i ilość danych ma kluczowe znaczenie. “Garbage in, garbage out” to nieoficjalny motto AI – model jest tak dobry jak dane, na których się uczył.
Transfer Learning Wykorzystywanie wiedzy z jednego zadania do innego. Jak wykorzystanie umiejętności gry na gitarze do nauki gry na ukulele – podstawy są podobne, szczegóły się różnią.
Transformer Przełomowa architektura AI wprowadzona w 2017 roku w paperze “Attention is All You Need”. Podstawa wszystkich nowoczesnych LLM-ów. Tak istotna, że “T” w GPT od niej pochodzi.
Turing Test Test zaproponowany przez Alana Turinga do określenia, czy maszyna może myśleć. Jeśli człowiek nie potrafi odróżnić odpowiedzi AI od człowieka – AI przechodzi test. ChatGPT prawdopodobnie przechodzi, chociaż ciągle debatujemy co to właściwie znaczy.
Underfitting Przeciwieństwo overfittingu – gdy model jest zbyt prosty, żeby uchwycić wzorce w danych. Jak próba wyjaśnienia kwantowej mechaniki dziecku – uproszczenie przesadne.
Vector Database Baza danych zaprojektowana do przechowywania i wyszukiwania embeddingów. Kluczowe dla RAG i aplikacji AI potrzebujących szybkiego wyszukiwania semantycznego. Brzmi nudno, ale umożliwia fajne rzeczy.
Weight (Waga) Wartość liczbowa połączenia między neuronami w sieci. Trening modelu to głównie dostrajanie tych wag. Miliardy małych liczb, które razem tworzą inteligencję. Albo coś co udaje inteligencję wystarczająco dobrze.
Zero-Shot Learning Zdolność modelu do wykonywania zadań, na których nigdy nie był trenowany. Jak prośba do kogoś kto nigdy nie jeździł na rowerze “jedź” – czasami działa, czasami kończy się w krzakach.
Podsumowanie
I to by było na tyle – przeszliście przez słowniczek AI bez zbędnego buzzworda… no prawie. Jeśli po przeczytaniu tego ciągle nie rozumiecie o co chodzi w AI – witajcie w klubie, w którym są też inżynierowie pracujący nad tym od lat.
Różnica jest taka, że oni dostają za to pensje z krzypto-like’owymi zerami na końcu. A teraz możecie już śmiało wrzucać te terminy w prezentacje, na LinkedIn i w rozmowach przy kawie, udając że wiecie o co chodzi. Bo w sumie wszyscy tak robimy.


