Agentic AI (AI Agentowe)
Systemy AI, które potrafią rozumieć niuanse instrukcji, autonomicznie podejmować decyzje, planować i dążyć do celów przy mniejszym poleganiu na promptach użytkownika – podobnie jak pracownik.
Algorytm
W informatyce jest to zestaw instrukcji przekazywanych komputerowi w celu wykonania określonego zadania.
Benchmark
Standard, według którego ocenia się wydajność modelu AI w konkretnym zadaniu; służy jako punkt odniesienia do porównywania różnych modeli.
Bias (Stronniczość)
Niesprawiedliwe zniekształcenia w wynikach AI spowodowane przez dyskryminujące lub niereprezentatywne dane treningowe bądź błędy w samym algorytmie.
Bielik
Pierwszy duży polski model językowy (LLM) typu open-source, opracowany przez zespół SpeakLeash i Akademickie Centrum Komputerowe Cyfronet AGH. Jest zoptymalizowany pod kątem języka polskiego oraz polskiego kontekstu kulturowego i prawnego.
Chatbot
Aplikacja symulująca płynną, ludzką rozmowę; często wykorzystuje modele LLM i przetwarzanie języka naturalnego (NLP).
Cloud computing (Przetwarzanie w chmurze)
Korzystanie z infrastruktury obliczeniowej (serwery, bazy danych) dostarczanej przez firmy trzecie, zamiast utrzymywania własnego sprzętu.
Dane (Data)
Zbiór surowych informacji lub wartości przechowywanych w systemach komputerowych, które są następnie tłumaczone na zrozumiałe dla człowieka liczby i słowa.
Data science (Nauka o danych)
Interdyscyplinarna dziedzina skupiona na wykorzystywaniu danych do podejmowania decyzji opartych na dowodach, często z użyciem technik AI.
Fine-tuning (Dostrajanie)
Proces adaptacji wstępnie wytrenowanego modelu do specyficznych zastosowań przy użyciu mniejszego, wyspecjalizowanego zbioru danych.
Foundation model (Model fundacyjny)
Model AI wytrenowany na ogromnym zbiorze danych, który może być wykorzystywany do szerokiego zakresu różnych zadań w wielu branżach.
Generatywna AI
Modele zdolne do tworzenia nowych treści (tekst, obrazy, kod, wideo) na podstawie ogromnych ilości danych treningowych.
GPT
Skrót od Generative Pre-trained Transformer; model NLP wyszkolony do płynnego tworzenia języka.
Halucynacja (Hallucination)
Generowanie przez model AI błędnych lub niedokładnych informacji, które brzmią wiarygodnie; ryzyko to wymaga stosowania mechanizmów zabezpieczających w pracy prawnika.
Interface API (Interfejs programowania aplikacji)
Zbiór reguł i protokołów pozwalających różnym aplikacjom na standardową wymianę danych i współpracę, np. integrację modelu AI z systemem zarządzania kancelarią.
Język naturalny (NLP)
Dziedzina AI zajmująca się rozumieniem i generowaniem ludzkiego języka, zarówno w formie pisemnej, jak i mówionej.
Knowledge distillation (Destylacja wiedzy)
Proces używania dużego modelu do wytrenowania mniejszego, który zachowuje wydajność w specyficznych zadaniach, zużywając mniej mocy obliczeniowej.
Large language model (LLM / Duży model językowy)
Model AI trenowany na ogromnych ilościach tekstu w celu generowania płynnych odpowiedzi na prompty użytkownika; ze względu na biegłość językową świetnie nadaje się do zadań prawniczych.
Machine learning (Uczenie maszynowe)
Poddziedzina AI, w której algorytmy uczą się wydobywać wiedzę z danych bez konieczności bycia bezpośrednio zaprogramowanymi do konkretnego zadania.
Modality (Modalność)
Typ lub tryb danych, np. tekst, dźwięk, obraz lub wideo.
Natural language generation (NLG)
Podzbiór NLP skupiony na procesie generowania przez komputer tekstu w języku ludzkim.
Okno kontekstowe (Context window)
Maksymalna ilość tekstu (tokenów), jaką model LLM może uwzględnić w ramach jednej, ciągłej rozmowy; po przekroczeniu tego limitu model może „zapomnieć" wcześniejsze wątki.
Prompt (Polecenie)
Pisemna instrukcja lub zapytanie przekazywane modelowi generatywnej AI w celu uzyskania odpowiedzi.
Pre-training (Wstępne trenowanie)
Początkowa faza nauki modelu na ogromnym zbiorze danych, zanim zostanie on dostrojony do konkretnych zadań.
RAG (Retrieval-augmented generation)
Technika podnosząca dokładność odpowiedzi LLM poprzez zmuszenie modelu do opierania się na zaufanych źródłach lub konkretnej bazie danych.
Supervised learning (Uczenie nadzorowane)
Metoda trenowania modeli przy użyciu danych z etykietami (adnotacjami), które pomagają algorytmowi wyciągać poprawne wnioski.
Token
W modelach LLM jest to słowo lub jego część; modele mają limity tokenów, które mogą przetworzyć za jednym razem.
Transformer model
Typ modelu AI szczególnie skuteczny w rozumieniu kontekstu i relacji między danymi sekwencyjnymi, takimi jak słowa w zdaniu.
Unsupervised learning (Uczenie nienadzorowane)
Trenowanie modelu na danych bez etykiet, gdzie algorytm musi samodzielnie znaleźć reguły i wzorce.
Vision (Wizja komputerowa)
Dziedzina AI umożliwiająca maszynom przetwarzanie danych wizualnych, np. wyodrębnianie tekstu ze skanów dokumentów (OCR).
Workflow (Przebieg pracy)
Sekwencja zadań; zaawansowane systemy AI (Agentic AI) są projektowane tak, aby rozumieć i autonomicznie realizować złożone procesy robocze.
Zastosowanie (Use case)
Praktyczne wykorzystanie technologii lub produktu w celu osiągnięcia konkretnego rezultatu, np. tworzenie projektów umów przez AI.