Activation Function (Funkcja aktywacji): Funkcja aktywacji to funkcja matematyczna stosowana w sieciach neuronowych, która decyduje, czy neuron ma zostać aktywowany, czyli przekazać sygnał dalej. Funkcje aktywacji wpływają na zdolność sieci do uczestnictwa w nieliniowych związkach. Funkcja aktywacji to sposób, w jaki maszyny decydują, czy neuron ma przekazać sygnał dalej w sieci neuronowej.
Active Learning (Uczenie aktywne) – strategia uczenia maszynowego, w której model AI może wybierać przykłady uczące, na których chce się uczyć, zamiast być nauczonym na stałym zestawie danych. Uczenie aktywne to sposób uczenia modeli AI, gdy model sam wybiera, na których przykładach chce się uczyć.
AGI (Artificial General Intelligence) (Sztuczna Inteligencja Ogólna): Sztuczna Inteligencja Ogólna to poziom zaawansowania sztucznej inteligencji, który pozwala na wykonywanie wszelkich zadań intelektualnych, które człowiek może wykonać. AGI różni się od obecnych form sztucznej inteligencji, które są specjalistyczne i ograniczone do konkretnych zadań. AGI ma zdolność do uczenia się, rozumienia, adaptacji i twórczego rozwiązywania problemów we wszystkich dziedzinach wiedzy. Sztuczna Inteligencja Ogólna to rodzaj sztucznej inteligencji, która może wykonywać dowolne zadania, które człowiek może zrobić, ucząc się i dostosowując się do różnych sytuacji, tak jak ludzie.
Anthropomorphism (Antropomorfizm): W kontekście sztucznej inteligencji antropomorfizm odnosi się do przypisywania cech, emocji czy intencji ludzkich systemom AI lub maszynom. Może to prowadzić do postrzegania, że te systemy mają ludzkie zrozumienie, uczucia czy świadomość, nawet jeśli są zasadniczo różne od ludzi pod względem swojej struktury i mechanizmów. Antropomorfizm polega na przypisywaniu cech ludzkich systemom AI lub maszynom, sprawiając wrażenie, że mają one uczucia czy myślą jak ludzie, mimo że tak naprawdę różnią się od nas.
Artificial Intelligence (Sztuczna inteligencja): Sztuczna inteligencja to nauka i technika tworzenia maszyn, które potrafią wykonywać zadania wymagające ludzkiej inteligencji, takie jak rozumienie języka naturalnego, rozpoznawanie obrazów czy podejmowanie decyzji. Sztuczna inteligencja to sposób, w jaki maszyny uczą się myśleć i rozwiązywać problemy jak ludzi.
Autoencoder (Autoenkoder) – rodzaj sieci neuronowej stosowany do uczenia nienadzorowanego, który uczy się kompresować dane wejściowe do niższej wymiarowości, a następnie odtwarzać je z powrotem do oryginalnej formy. Autoenkodery to modele AI, które uczą się kompresować i odtwarzać dane.
Attention Mechanism (Mechanizm uwagi) – technika stosowana w modelach uczenia maszynowego, szczególnie w sieciach neuronowych, która pozwala modelowi skupić się na najważniejszych częściach danych wejściowych podczas wykonywania zadania. Mechanizm uwagi ułatwia radzenie sobie z długimi sekwencjami danych, takimi jak długie teksty, i jest kluczowym elementem w architekturze transformer, na której oparte są modele językowe, takie jak BERT i GPT. Mechanizm uwagi to sposób, w jaki modele AI uczą się skupiać na najważniejszych częściach danych, gdy wykonują zadania, tak jak ludzie skupiają się na kluczowych informacjach, gdy czytają tekst.
Backpropagation (Wsteczna propagacja błędu): Backpropagation to algorytm stosowany w sieciach neuronowych do optymalizacji wag na podstawie błędów popełnionych przez model podczas treningu. Błędy są propagowane wstecznie od wyjścia do wejścia sieci, aby dostosować wagi neuronów. Wsteczna propagacja błędu to sposób, w jaki maszyny uczą się na swoich błędach, aby poprawić swoje działanie.
Bias (Uprzedzenie): W kontekście sztucznej inteligencji i uczenia maszynowego, uprzedzenie to systematyczny błąd, który może wpływać na wyniki i decyzje podejmowane przez modele AI. Uprzedzenia mogą wynikać z różnych źródeł, takich jak nierównomiernie rozłożone dane treningowe, nieodpowiednie cechy czy błędne założenia. Uprzedzenia w modelach AI mogą prowadzić do niesprawiedliwych lub dyskryminujących wyników, które wpływają na różne grupy ludzi w nierówny sposób. Uprzedzenie to błąd w systemach AI, który może prowadzić do niesprawiedliwych lub niepoprawnych wyników, często spowodowany problemami z danymi lub założeniami, na których opiera się model.
Batch (Wieża): W kontekście uczenia maszynowego, batch to podzbiór danych treningowych używanych do trenowania modelu w pojedynczej iteracji. Dzielenie danych treningowych na mniejsze partie pomaga w optymalizacji procesu uczenia oraz zarządzaniu pamięcią. Wieża to mały zestaw danych, na których maszyna uczy się w jednym kroku, zamiast uczyć się na wszystkich danych naraz.
BERT Model (Model BERT) – zaawansowany model językowy oparty na architekturze transformers, który uczy się reprezentacji słów, patrząc na tekst w obu kierunkach. Model BERT to zaawansowany model AI, który uczy się zrozumieć język naturalny, patrząc na tekst w obu kierunkach.
Capsule Network (Sieć kapsułowa) – rodzaj sieci neuronowej, która wprowadza koncepcję „kapsuł” do lepszego radzenia sobie z problemami, takimi jak transformacje i hierarchie obiektów w przetwarzaniu obrazu. Sieci kapsułowe to modele AI, które są lepsze w rozumieniu obrazów poprzez użycie specjalnych struktur nazywanych „kapsułami”.
Chatbot (Czatbot): Chatbot to program komputerowy, który potrafi prowadzić rozmowy z ludźmi, zazwyczaj przez interfejs tekstowy lub głosowy. Chatboty są często wykorzystywane w obszarach obsługi klienta, wsparcia technicznego czy rozrywki. Czatbot to maszyna, która umie rozmawiać z ludźmi i pomagać im w różnych sytuacjach.
Classification (Klasyfikacja): Klasyfikacja to zadanie uczenia maszynowego, które polega na przypisaniu obiektów do jednej z wielu klas na podstawie ich cech. Przykłady zastosowań klasyfikacji to rozpoznawanie obrazów, filtrowanie spamu czy diagnozowanie chorób. Klasyfikacja to sposób, w jaki maszyny uczą się rozróżniać różne rzeczy na podstawie ich cech.
Clustering (Klasteryzacja): Klasteryzacja to technika uczenia nienadzorowanego, która polega na grupowaniu danych w klastry na podstawie ich podobieństwa. Stosuje się ją m.in. do segmentacji rynku, detekcji anomalii czy analizy obrazów. Klasteryzacja to sposób, w jaki maszyny uczą się grupować rzeczy, które są do siebie podobne.
Computer Vision (Widzenie komputerowe): Computer Vision to dziedzina nauki zajmująca się tworzeniem algorytmów i systemów, które pozwalają komputerom rozumieć i interpretować świat wizualny. Wykorzystuje się je w rozpoznawaniu obrazów, analizie wideo czy robotyce. Widzenie komputerowe to sposób, w jaki maszyny uczą się „widzieć” i rozumieć obrazy.
Convolutional Neural Network (CNN) (Splotowa sieć neuronowa): CNN to rodzaj sieci neuronowej, której architektura jest zoptymalizowana do przetwarzania danych o stałej siatce, takich jak obrazy. CNN używają filtrów splotowych do wykrywania cech na różnych poziomach abstrakcji. Splotowa sieć neuronowa to rodzaj maszyny, która uczy się rozpoznawać obrazy i ich cechy.
Data Augmentation (Augmentacja danych): Data Augmentation to proces tworzenia nowych danych treningowych poprzez modyfikację istniejących przykładów. Stosuje się ją, aby zwiększyć ilość danych treningowych oraz poprawić zdolność modelu do generalizacji. Augmentacja danych to sposób, w jaki maszyny tworzą więcej danych do nauki przez modyfikację istniejących przykładów.
Deep Learning (Głębokie uczenie): Deep Learning to poddziedzina uczenia maszynowego, która koncentruje się na budowaniu i trenowaniu głębokich sieci neuronowych. Głębokie sieci neuronowe są zdolne do uczenia się złożonych reprezentacji danych, co pozwala na rozwiązanie trudniejszych problemów. Głębokie uczenie to sposób, w jaki maszyny uczą się rozwiązywać skomplikowane problemy dzięki bardzo dużym sieciom neuronowym.
Dropout (Dropout): Dropout to technika regularyzacji stosowana w sieciach neuronowych, która polega na losowym wyłączaniu pewnej liczby neuronów podczas treningu. Pomaga to zapobiec nadmiernemu dopasowaniu i zmusza sieć do uczestnictwa w bardziej rozproszonych reprezentacjach danych. Dropout to sposób, w jaki maszyny uczą się unikać nadmiernego dopasowania poprzez losowe wyłączanie neuronów podczas treningu.
Emergent behavior (Zachowanie emergentne): W kontekście sztucznej inteligencji, zachowanie emergentne to zjawisko, które występuje, gdy prostsze elementy systemu AI współdziałają ze sobą w sposób, który prowadzi do złożonych, niespodziewanych i często trudnych do przewidzenia wyników. Zachowanie emergentne może być pozytywne lub negatywne i może wpływać na funkcjonowanie systemu AI w różnorodny sposób, w zależności od kontekstu i interakcji pomiędzy elementami systemu. Zachowanie emergentne to złożone, niespodziewane wyniki, które pojawiają się, gdy proste elementy systemu AI współdziałają ze sobą. Może być to trudne do przewidzenia i wpłynąć na system AI w różny sposób.
Ensemble Learning (Uczenie zespołowe): Uczenie zespołowe to technika uczenia maszynowego, która polega na łączeniu prognoz kilku modeli w celu uzyskania lepszego rezultatu. Metody uczenia zespołowego obejmują agregację prognoz, ważoną średnią czy głosowanie większościowe. Uczenie zespołowe to sposób, w jaki maszyny łączą przewidywania kilku modeli, aby uzyskać lepsze wyniki.
Feature Engineering (Inżynieria cech): Feature Engineering to proces tworzenia, wyboru i przekształcania cech danych wejściowych, aby ułatwić uczenie maszynowe i poprawić jakość modelu. Dobre cechy pozwalają modelom lepiej rozumieć dane i szybciej osiągać lepszą wydajność. Inżynieria cech to sposób, w jaki maszyny uczą się rozumieć dane przez tworzenie i modyfikowanie właściwości danych.
Fine-tuning (Dostrajanie): Fine-tuning to proces dostosowywania parametrów modelu uczenia maszynowego, który już był wcześniej wytrenowany na innym zadaniu lub zbiorze danych. Stosuje się go, aby przyspieszyć uczenie i osiągnąć lepszą wydajność na nowym zadaniu. Dostrajanie to sposób, w jaki maszyny uczą się nowego zadania, dostosowując się do wcześniej nauczonego modelu.
Federated Learning (Uczenie federacyjne) – podejście do uczenia maszynowego, które pozwala na wspólne uczenie się modelu AI na danych rozproszonych na wielu urządzeniach, bez centralizowania danych. Uczenie federacyjne to sposób uczenia modeli AI, który pozwala na wspólne uczenie się z danymi na wielu urządzeniach.
Frequency penalty (Kara za częstotliwość): Parametr na https://platform.openai.com/ Parametr, który pozwala kontrolować, czy model ma unikać generowania często występujących fraz. Wyższa wartość kary sprawia, że model będzie starał się generować mniej popularne odpowiedzi. Kara za częstotliwość to sposób kontroli na tym, czy model ma unikać powtarzania popularnych fraz.
Generative A.I. (Generatywna Sztuczna Inteligencja): Generatywna sztuczna inteligencja to rodzaj AI, który tworzy nowe dane, wzorce lub wyniki na podstawie istniejących danych. Generatywne modele AI, takie jak sieci neuronowe generatywno-adwersyjne (GANs), potrafią tworzyć realistyczne obrazy, tekst, dźwięki i inne dane, ucząc się wzorców i struktur z danych treningowych. Generatywna AI może być używana w różnych zastosowaniach, takich jak generowanie sztuki, tekstów, muzyki czy symulowanie danych. Generatywna sztuczna inteligencja to rodzaj AI, który tworzy nowe dane, wzorce lub wyniki, bazując na tym, czego nauczył się z istniejących danych. Może być używana do tworzenia sztuki, tekstów, muzyki i innych rzeczy.
Generative Adversarial Network (GAN) (Generatywna sieć przeciwna): GAN to rodzaj sieci neuronowej, w której dwa modele uczą się jednocześnie: generator, który tworzy dane, i dyskryminator, który ocenia ich autentyczność. W wyniku tego procesu generator staje się coraz lepszy w generowaniu danych przypominających prawdziwe. Generatywna sieć przeciwna to sposób, w jaki maszyny uczą się tworzyć realistyczne dane poprzez rywalizację między dwoma modelami.
Gradient Descent (Spadek gradientu): Gradient Descent to algorytm optymalizacji używany w uczeniu maszynowym, który pozwala modelom uczyć się poprawiając swoje parametry na podstawie gradientów funkcji kosztu. Model stara się minimalizować funkcję kosztu, aby osiągnąć najlepszą wydajność. Spadek gradientu to sposób, w jaki maszyny uczą się poprawiać swoje działanie, dostosowując się do błędów.
Hallucination (Halucynacja): W kontekście sztucznej inteligencji, halucynacja odnosi się do przypadku, gdy model AI generuje odpowiedzi, które wydają się być powiązane z danymi wejściowymi, ale są w rzeczywistości niepoprawne lub nie mają sensu. Halucynacje są często wynikiem niedoskonałości w modelu lub braku wystarczających informacji wejściowych. W modelach językowych, takich jak GPT-3, halucynacje mogą objawiać się jako niespójne, nieistotne lub nieprawdziwe informacje generowane przez model. Halucynacja w AI to sytuacja, gdy model generuje odpowiedzi, które wydają się związane z danymi wejściowymi, ale są niepoprawne lub nie mają sensu. To może być spowodowane niedoskonałościami modelu lub brakiem informacji wejściowych.
Hyperparameter (Hiperparametr): Hiperparametry to wartości konfiguracyjne, które określają sposób działania modelu uczenia maszynowego. Przykłady hiperparametrów to liczba warstw sieci neuronowej, rozmiar wsadu czy współczynnik uczenia. Dostosowanie hiperparametrów może poprawić wydajność modelu. Hiperparametry to wartości, które kontrolują sposób działania maszyny i pomagają jej lepiej się uczyć.
Image Segmentation (Segmentacja obrazów): Segmentacja obrazów to zadanie przetwarzania obrazów polegające na podziale obrazu na segmenty, które reprezentują różne obiekty lub obszary. Stosuje się ją m.in. w analizie obrazów medycznych, analizie sceny czy detekcji obiektów. Segmentacja obrazów to sposób, w jaki maszyny uczą się dzielić obrazy na różne części, aby lepiej je rozumieć.
Language Model (Model językowy): Model językowy to matematyczny model, który pozwala komputerom na generowanie i rozumienie tekstu w języku naturalnym. Modele językowe są trenowane na dużych zbiorach danych tekstowych i wykorzystywane w tłumaczeniu maszynowym, generacji tekstu czy rozumieniu języka naturalnego. Model językowy to sposób, w jaki maszyny uczą się rozumieć i tworzyć tekst w języku ludzi.
LLM (Large Language Model) (Duży Model Językowy): Duży Model Językowy to rodzaj sztucznej inteligencji oparty na uczeniu głębokim, który potrafi generować i rozumieć tekst w sposób zaawansowany. Modele te są wytrenowane na ogromnych ilościach danych tekstowych i potrafią przeprowadzać wiele zadań związanych z przetwarzaniem języka naturalnego, takich jak tłumaczenie, generowanie tekstu, odpowiadanie na pytania czy analiza emocji. Duży Model Językowy to rodzaj sztucznej inteligencji, która potrafi rozumieć i generować tekst, ucząc się z dużych ilości danych tekstowych.
Learning Rate (Współczynnik uczenia): Współczynnik uczenia to hiperparametr, który kontroluje szybkość, z jaką model uczenia maszynowego aktualizuje swoje parametry podczas treningu. Zbyt duży współczynnik uczenia może powodować niestabilne uczenie, podczas gdy zbyt mały może prowadzić do zbyt wolnego uczenia. Współczynnik uczenia to wartość, która kontroluje, jak szybko maszyna uczy się na swoich błędach.
Loss Function (Funkcja kosztu): Funkcja kosztu to miara różnicy między prognozami modelu a rzeczywistymi danymi. Uczenie maszynowe polega na minimalizacji funkcji kosztu poprzez dostosowanie parametrów modelu. Przykłady funkcji kosztu to błąd średniokwadratowy czy entropia krzyżowa. Funkcja kosztu to sposób, w jaki maszyny mierzą, jak bardzo się mylą, i uczą się poprawiać swoje działanie.
Max tokens (Maksymalna liczba tokenów): Parametr na https://platform.openai.com/ Liczba tokenów, które model GPT-3 może wygenerować jako odpowiedź. Tokeny to jednostki tekstu, takie jak słowa czy znaki. Przyjmuje się, że 1 token ~= 4 znaki w Angielskim. 1 token ~= ¾ słowa. 100 tokens ~= 75 słów ; 1-2 zdania ~= 30 tokenów. 1 paragraf ~= 100 tokenów. 1500 słów ~= 2048 tokenów. Maksymalna liczba tokenów to ilość słów lub znaków, które model może użyć w odpowiedzi.
ML (Machine Learning) (Uczenie maszynowe): Uczenie maszynowe to gałąź sztucznej inteligencji, która polega na tworzeniu i trenowaniu modeli matematycznych w celu wykonywania różnych zadań bez konieczności jawnego programowania. Modele uczenia maszynowego uczą się z danych i poprawiają swoją wydajność, gdy są wystawione na większą ilość danych. Uczenie maszynowe można zastosować do różnych problemów, takich jak klasyfikacja, regresja, czy przetwarzanie języka naturalnego. Uczenie maszynowe to sposób, w jaki komputery uczą się wykonywać zadania, analizując dane i ucząc się z nich, zamiast polegać na szczegółowych instrukcjach.
Model (Model): Parametr na https://platform.openai.com/ Wybór modelu GPT-3, z którym chcesz eksperymentować. Istnieją różne wersje modelu o różnych rozmiarach i zdolnościach. Model to wersja GPT-3, z którą chcesz pracować.
Model Interpretability (Interpretowalność modelu) – zdolność modelu uczenia maszynowego do wyjaśnienia, dlaczego podejmuje określone decyzje lub przewidywania. Interpretowalność modelu pomaga zrozumieć, jak model działa i jak można go usprawnić, a także zwiększa zaufanie do wyników generowanych przez model. Interpretowalność modelu to cecha modeli AI, która pozwala nam zrozumieć, dlaczego podejmują pewne decyzje lub przewidywania.
Natural Language Processing (NLP) (Przetwarzanie języka naturalnego): Przetwarzanie języka naturalnego to dziedzina nauki zajmująca się tworzeniem algorytmów i systemów, które pozwalają komputerom rozumieć, interpretować i generować język ludzki. NLP jest wykorzystywane w tłumaczeniu maszynowym, analizie emocji czy generacji tekstu. Przetwarzanie języka naturalnego to sposób, w jaki maszyny uczą się rozumieć i tworzyć język ludzki.
Neural Network (Sieć neuronowa) (Sieć neuronowa): Sieć neuronowa to matematyczny model inspirowany strukturą i funkcjonowaniem mózgu, który pozwala na uczenie maszynowe. Sieci neuronowe składają się z warstw neuronów, które przetwarzają dane i uczą się z nich. Stosuje się je w różnych dziedzinach, takich jak rozpoznawanie obrazów czy przetwarzanie języka naturalnego. Sieć neuronowa to sposób, w jaki maszyny uczą się poprzez naśladowanie pracy ludzkiego mózgu.
Overfitting (Nadmierna dopasowanie): Nadmierna dopasowanie to problem uczenia maszynowego, w którym model zbyt dobrze dopasowuje się do danych treningowych, ale ma słabą zdolność generalizacji na nowe dane. Może być spowodowane zbyt złożonym modelem, brakiem danych treningowych lub zbyt długim treningiem. Nadmierna dopasowanie to sytuacja, w której maszyna zbyt dobrze uczy się danych treningowych, ale nie radzi sobie z nowymi danymi.
Parameters (Parametry): W kontekście sztucznej inteligencji, parametry to wartości numeryczne, które są używane przez modele AI do określenia, jak przetwarzać dane wejściowe i wykonywać zadania. Parametry są dostosowywane podczas procesu uczenia maszynowego, gdy model optymalizuje swoją wydajność, ucząc się z dostarczonych danych. W sieciach neuronowych, parametry obejmują wagi i składowe progowe, które kontrolują przepływ informacji przez sieć. Parametry to liczby, które pomagają modelom AI określić, jak przetwarzać dane i wykonywać zadania. Są one dostosowywane w trakcie uczenia maszynowego, aby poprawić wydajność modelu.
Presence penalty (Kara za obecność): Parametr na https://platform.openai.com/ Parametr, który pozwala kontrolować, czy model ma unikać powtarzania słów i fraz użytych w wprowadzeniu. Wyższa wartość kary sprawia, że model będzie starał się generować bardziej różnorodne odpowiedzi. Kara za obecność to sposób kontroli na tym, czy model ma unikać powtarzania słów z wprowadzenia.
Pre-trained Model (Wstępnie wytrenowany model): Wstępnie wytrenowany model to model uczenia maszynowego, który został już wytrenowany na dużym zbiorze danych. Takie modele są używane jako punkt wyjścia dla dalszego treningu na specyficznych zadaniach lub danych, co pozwala oszczędzić czas i zasoby potrzebne na trening od podstaw. Wstępnie wytrenowany model to maszyna, która już nauczyła się podstawowych rzeczy i może być dostosowana do nowych zadań.
Prompt (prompt): Parametr na https://platform.openai.com/ Tekst, który wpisujesz jako wejście dla modelu. Model GPT-3 wykorzystuje tę informację, aby wygenerować odpowiedź na podstawie treningu i kontekstu. Prompt to tekst, który podajesz modelowi, aby otrzymać odpowiedź.
Random Forest (Las losowy): Las losowy to algorytm uczenia maszynowego oparty na drzewach decyzyjnych, który buduje wiele drzew i łączy ich prognozy, aby uzyskać lepszą wydajność. Las losowy jest wykorzystywany w zadaniach klasyfikacji, regresji czy detekcji anomalii. Las losowy to sposób, w jaki maszyny uczą się poprzez tworzenie wielu drzew decyzyjnych
Reinforcement Learning (Uczenie ze wzmocnieniem): Uczenie ze wzmocnieniem to rodzaj uczenia maszynowego, w którym agent uczy się podejmować decyzje poprzez interakcję ze środowiskiem i otrzymywanie sygnałów zwrotnych w postaci nagród lub kar. Stosuje się je w kontrolowaniu robotów, grach czy optymalizacji systemów. Uczenie ze wzmocnieniem to sposób, w jaki maszyny uczą się podejmować decyzje, otrzymując nagrody lub kary za swoje działania.
Regularization (Regularyzacja): Regularyzacja to technika uczenia maszynowego, która pomaga zapobiegać nadmiernemu dopasowaniu poprzez dodanie kary za złożoność modelu. Stosuje się ją, aby zachować równowagę między dopasowaniem modelu do danych treningowych a zdolnością generalizacji na nowe dane. Regularyzacja to sposób, w jaki maszyny uczą się unikać nadmiernego dopasowania, kontrolując złożoność modelu.
Semantic Segmentation (Segmentacja semantyczna): Segmentacja semantyczna to zadanie przetwarzania obrazów polegające na etykietowaniu pikseli obrazu według kategorii obiektów, które reprezentują. Stosuje się ją w rozpoznawaniu obiektów, analizie obrazów medycznych czy analizie sceny. Segmentacja semantyczna to sposób, w jaki maszyny uczą się rozpoznawać różne obiekty na obrazach, przypisując im etykiety.
Singularity (Osobliwość technologiczna) – hipotetyczny punkt w czasie, w którym sztuczna inteligencja (AI) osiągnie zdolność samodoskonalenia się na tyle szybko, że jej rozwój będzie nieprzewidywalny i niekontrolowalny dla ludzi. Osobliwość technologiczna przewiduje znaczące zmiany w społeczeństwie, gospodarce i technologii, które mogą prowadzić do nieznanego wcześniej wzrostu wydajności i wpływu na życie ludzkie. Osobliwość technologiczna to moment, w którym AI stanie się na tyle zaawansowana, że będzie mogła sama się ulepszać, a jej rozwój stanie się trudny do przewidzenia i kontroli przez ludzi.
Supervised Learning (Uczenie nadzorowane): Uczenie nadzorowane to rodzaj uczenia maszynowego, w którym model uczy się na podstawie par wejście-wyjście, gdzie każdemu wejściu przypisane jest prawidłowe wyjście (etykieta). Stosuje się je w zadaniach klasyfikacji, regresji czy analizie emocji. Uczenie nadzorowane to sposób, w jaki maszyny uczą się, mając dostęp do prawidłowych odpowiedzi (etykiet) dla danych wejściowych.
Temperature (Temperatura): Parametr na https://platform.openai.com/ Parametr, który kontroluje losowość generowanych odpowiedzi przez model GPT-3. Wyższa temperatura powoduje bardziej losowe odpowiedzi, podczas gdy niższa temperatura prowadzi do bardziej deterministycznych wyników. Temperatura to sposób kontroli na tym, jak losowe będą odpowiedzi modelu.
Transfer Learning (Transfer wiedzy): Transfer wiedzy to technika uczenia maszynowego, która polega na wykorzystaniu wiedzy zdobytej przez model podczas treningu na jednym zadaniu do rozwiązania innego, związanego zadania. Dzięki transferowi wiedzy można oszczędzić czas i zasoby potrzebne na trening od podstaw. Transfer wiedzy to sposób, w jaki maszyny wykorzystują już nauczone rzeczy do rozwiązania nowych, związanych zadań.
Token (Token): W kontekście przetwarzania języka naturalnego i uczenia maszynowego, token to jednostka tekstu, która reprezentuje część większego tekstu. Token może być pojedynczym słowem, znakiem interpunkcyjnym lub innym elementem, który ma znaczenie w analizowanym języku. Modele języka, takie jak GPT-3, dzielą tekst na tokeny, aby lepiej zrozumieć i przetwarzać informacje. Przyjmuje się, że 1 token ~= 4 znaki w Angielskim. 1 token ~= ¾ słowa. 100 tokens ~= 75 słów ; 1-2 zdania ~= 30 tokenów. 1 paragraf ~= 100 tokenów. 1500 słów ~= 2048 tokenów. Token to kawałek tekstu, taki jak słowo lub znak, który model języka używa do analizy i przetwarzania tekstu.
Top-p (Top-p): Parametr na https://platform.openai.com/ Parametr, który kontroluje próbkowanie odpowiedzi z określonej puli najbardziej prawdopodobnych tokenów. Wartość top-p bliska 1 sprawia, że model bierze pod uwagę większą liczbę tokenów, podczas gdy wartość top-p bliska 0 ogranicza model do kilku najbardziej prawdopodobnych tokenów. Top-p to sposób kontroli na tym, jak wiele różnych słów model bierze pod uwagę, tworząc odpowiedź.
Transformer model (Model transformera): Model transformera to architektura sieci neuronowej, która została opracowana przez badaczy z Google Brain w 2017 roku. Transformery są wykorzystywane w przetwarzaniu języka naturalnego i innych zadaniach związanych z sekwencjami danych. Ich główną cechą jest mechanizm uwagi, który pozwala modelowi skupić się na różnych częściach sekwencji wejściowej podczas generowania odpowiedzi. Transformery stały się podstawą wielu zaawansowanych modeli językowych, takich jak GPT-3, BERT czy T5. Model transformera to rodzaj sztucznej inteligencji, który dobrze radzi sobie z przetwarzaniem języka naturalnego i innymi zadaniami związanymi z sekwencjami danych, dzięki specjalnemu mechanizmowi uwagi. Jest wykorzystywany w wielu zaawansowanych modelach językowych.
Unsupervised Learning (Uczenie nienadzorowane): Uczenie nienadzorowane to rodzaj uczenia maszynowego, w którym model uczy się wykrywać wzorce i struktury w danych bez etykiet (prawidłowych odpowiedzi). Stosuje się je w zadaniach grupowania, redukcji wymiarów czy detekcji anomalii. Uczenie nienadzorowane to sposób, w jaki maszyny uczą się rozpoznawać wzorce w danych, nie mając dostępu do prawidłowych odpowiedzi.
Word Embeddings (Wektory słów) – matematyczne reprezentacje słów w przestrzeni wektorowej, które pozwalają na kwantyfikowanie podobieństwa między słowami i wykonywanie operacji matematycznych na ich znaczeniach. Wektory słów to sposób na reprezentowanie słów jako liczby, aby modele AI mogły lepiej zrozumieć język.
Validation Set (Zbiór walidacyjny): Zbiór walidacyjny to podzbiór danych, który jest używany do oceny wydajności modelu uczenia maszynowego podczas treningu. Zbiór walidacyjny pomaga dostosować hiperparametry modelu i uniknąć nadmiernego dopasowania. Zbiór walidacyjny to dane, na których maszyny sprawdzają swoją wydajność podczas uczenia się, aby dostosować się do różnych sytuacji.
Vectorization (Wektoryzacja): Wektoryzacja to proces konwersji danych, takich jak tekst, obrazy czy dźwięk, do wektorów liczbowych, które można przetwarzać w modelach uczenia maszynowego. Wektoryzacja pozwala na uproszczenie i standaryzację danych, co ułatwia ich analizę. Wektoryzacja to sposób, w jaki maszyny zamieniają różne rodzaje danych na liczby, aby je lepiej zrozumieć i analizować.
Word Embedding (Osadzanie słów): Osadzanie słów to technika przetwarzania języka naturalnego, która pozwala na reprezentowanie słów jako wektory liczbowe w przestrzeni wielowymiarowej. Osadzanie słów pozwala na analizowanie podobieństwa, kontekstu czy znaczenia słów w języku naturalnym. Osadzanie słów to sposób, w jaki maszyny zamieniają słowa na liczby, aby lepiej je rozumieć i analizować.
XGBoost (XGBoost): XGBoost to algorytm uczenia maszynowego oparty na drzewach decyzyjnych, który jest zoptymalizowany dla szybkości i wydajności. XGBoost jest używany w zadaniach klasyfikacji, regresji czy rankingu i często wygrywa konkursy uczenia maszynowego. XGBoost to szybki i wydajny sposób, w jaki maszyny uczą się z danych, oparty na drzewach decyzyjnych.
YOLO (You Only Look Once) (YOLO): YOLO to algorytm detekcji obiektów w obrazach, który jest szybki i wydajny, gdyż przetwarza obraz tylko jeden raz. YOLO dzieli obraz na siatkę komórek i przewiduje, które komórki zawierają obiekty oraz ich współrzędne. YOLO to sposób, w jaki maszyny szybko rozpoznają obiekty na obrazach, analizując je tylko raz.
Zero-shot Learning (Uczenie bezprzykładowe): Uczenie bezprzykładowe to rodzaj uczenia maszynowego, w którym model jest zdolny do wykonywania zadań na nowych klasach obiektów, których nie widział podczas treningu. Działa na zasadzie analogii, porównując nowe obiekty do wcześniej poznanych. Uczenie bezprzykładowe to sposób, w jaki maszyny uczą się rozpoznawać nowe obiekty, nie mając wcześniejszych przykładów.
Z-Score (Wynik Z): Wynik Z to miara, która pokazuje, jak daleko dana wartość jest od średniej w danej populacji, wyrażona w jednostkach odchylenia standardowego. W uczeniu maszynowym, wynik Z może być użyty do standaryzacji danych, co pomaga w porównaniu wartości z różnych rozkładów. Wynik Z to sposób, w jaki maszyny mierzą, jak bardzo dana wartość różni się od średniej, co ułatwia analizę danych