NeoN
– nowe narzędzie do wykrywania �i wstępnej analizy neologizmów leksykalnych
Aleksandra Tomaszewska, Dariusz Czerski, Bartosz Żuk, Maciej Ogrodniczuk
Seminarium „Przetwarzanie języka naturalnego” | IPI PAN | 23 czerwca 2025
Zapotrzebowanie interdyscyplinarne
Badania nowych zjawisk w języku, w kulturze, społeczeństwie – nie tylko językoznawstwo
Badania neologizmów: wprowadzenie
Nowości technologiczne, społeczne
Zmiany w języku odpowiadają na te przemiany
Czasochłonne
Tradycyjne metody
Oparte na czytaniu tekstów i ręcznej weryfikacji z wykorzystaniem słowników
Problem z uchwyceniem autentycznych kontekstów
Wyniki często już nieaktualne
Ryzyko polegania na intuicji już na etapie identyfikacji
Możliwość monitorowania na małych próbkach danych
Identyfikacja wspomagana metodami korpusowymi
Oparte na systemach półautomatycznych – np. flagi, tzw. wyróżniki – discriminants (Paryzek 2008), przedrostki międzynarodowe (ko-, auto-, inter-, anty-…) itp.
Crowdsourcing: współpraca społeczności akademickiej
Badanie neologizmów dziś
5
Wysoka skuteczność
4
Ograniczenie czasu potrzebnego na lekturę
3
Ograniczenie introspekcji
Najnowsze teksty
2
1
Duże zbiory autentycznych danych
NLP, modele językowe: odpowiedź na wyzwania związane z wykrywaniem
i analizą nowości w języku.
Przyspieszają, ułatwiają badania.
W ostatnich latach powstały półautomatyczne narzędzia wykorzystujące słowniki i filtry regułowe: NeoCrawler – Kerremans i in. 2018, Neoveille – Cartier 2017
Néoveille
NeoCrawler
Obszerne listy kandydatów wymagają eksperckiej weryfikacji, eliminacji błędów, uzupełniania metadanych (definicje, kategorie).
Narzędzia półautomatyczne
Jako materiał referencyjny zastosowano słowniki (nie korpusy ogólne danych języków).
Rzadko uwzględniają specyfikę języka polskiego, ew. w ograniczonym zakresie.
Nie są aktualizowane, np. Neoveille od 2020 roku.
LLM vs człowiek �a neologizmy�Zero‑shot model GPT‑4o‑mini przewyższył ludzi w zadaniach elicytacyjnych, chain-of-thought poprawił wyniki
(Ferrazzo i in. 2025).
Identyfikacja w danych z sieci społecznościowych Weibo �(Yin & Cheng 2016)
Tweety po francusku i włosku (Tarrade i in. 2022; Spina i in. 2024).
Wykrywanie neologizmów �w prasie francuskiej �(Falk i in. 2018).
Inne badania i narzędzia
Neo Bench: ocena zdolności LLM-ów do rozumienia �i przetwarzania neologizmów. Analiza + 2,5 k neologizmów.
Nowe metody – nowe wyzwania
Dane z internetu są “zaszumione” �(błędy ortograficzne, hashtagi, nazwy użytkowników)
Istniejące słowa pojawiają się w nowych formach
Nazwy własne udają neologizmy
Wstępne filtry: długość słowa, częstość itp.
Pipeline NeoN
Monitorowanie RSS �873 źródła, ekstrakcja treści
Filtry korpusowe: NKJP, KWJP, Wikipedia, NEKST – rejestrowane tylko formy po 2020 r.
Lematyzacja Hydra�scalanie wariantów fleksyjnych
Filtr LLM (Llama‑3.1-70B) – usuwanie fałszywych trafień; generowanie definicji i kategoryzacja
Skalowalny schemat śledzenia innowacji leksykalnych w polszczyźnie
Podgląd kontekstu z podświetleniem kandydata
NeoN w użyciu
Regulacja progów i reguł filtrów
w interfejsie internetowym
Generowanie definicji, dziedziny czy wydźwięku (jedno kliknięcie)
Łączenie odmian i wariantów zapisu
Eksport oczyszczonej listy do CSV
podgląd przykładów użycia
w kontekstach
Interfejs
regulacja parametrów filtrów
edycja listy słów-kandydatów
eksport wyników do CSV
Półprodukty analityczne
definicje, kategoryzacja, konteksty, statystyki, informacje językowe �– pomocne w dalszej analizie; człowiek interpretuje wyniki
Lista kandydatów
dostarcza listę – duża skuteczność, ale zaprojektowaliśmy NeoN-a tak, żeby człowiek mógł je weryfikować
Projektowanie�możliwość dostosowania filtrów, komponentów na potrzeby konkretnych badań
Więcej niż human-in-the-loop
NeoN jako asystent w badaniach nowych słów
FILTROWANIE FORM
Kategorie filtrów w NeoN
FILTROWANIE FORM
Kategorie filtrów w NeoN
Walidacja wielokorpusowa
Użyte korpusy (wybierane przez użytkownika, maksymalnie 4 jednocześnie):� • Narodowy Korpus Języka Polskiego (do 2010, ogólny)� • Korpus Współczesnego Języka Polskiego (2011–2020, ogólny)� • NEKST (do 2020, internetowy)� • Polska Wikipedia (najnowszy zrzut)
Działanie: eliminacja leksemów już zakorzenionych we współczesnej polszczyźnie.
Duży model językowy jako ostateczny filtr
Model: Llama-3.3-70B-Instruct
Prompt typu few-shot: 3 przykłady pozytywne + 3 przykłady negatywne
Rola: semantyczna i kontekstowa decyzja w przypadkach granicznych
Teza: pierwsze zastosowanie dużych modeli językowych jako dedykowanego etapu filtrowania w detekcji neologizmów.
Konfiguracja eksperymentu
Dane: 233 538 dokumentów internetowych (873 źródeł RSS, ok. 2 miesiące pracy pająka internetowego)
Wstępne przetwarzanie NLP: detekcja języka → ekstrakcja treści głównej → analiza morfosyntaktyczna za pomocą modelu Hydra
Wstępni kandydaci po odfiltrowaniu słownikowym: 200 696
Filtrowanie przyrostowe – wyniki na zbiorze testowym 610 neologizmów z OJUW
Filtr | Kandydaci | Precyzja | Czułość | F1 |
Min/Max len | 199,289 | 0.003 | 0.992 | 0.006 |
Freq > 5 | 33,801 | 0.018 | 0.989 | 0.035 |
Non-NE Freq > 5 | 4,198 | 0.142 | 0.972 | 0.248 |
… | | | | |
Not in KWJP100 | 1,740 | 0.308 | 0.873 | 0.455 |
LLM filtering | 1,056 | 0.508 | 0.873 | 0.642 |
Kluczowe spostrzeżenie: Filtry regułowe zmniejszają szum, a model LLM podwaja precyzję przy zachowaniu pełnej czułości.
Ręczna walidacja danych
Ręczna weryfikacja 1 740 kandydatów przed zastosowaniem modelu LLM
Etap | Wszystkie | Wykryte | Precyzja | Czułość | F1 |
Not in KWJP100 | 1,740 | 1,385 | 0.796 | – | – |
LLM filtering | 1,056 | 968 | 0.917 | 0.699 | 0.79 |
Model LLM zwiększa precyzję o 0.121, przy akceptowalnym kompromisie w czułości.
Grupowanie form
Dlaczego grupować formy?
Ewaluacja narzędzi do lematyzacji w kontekście neologizmów
Nowe metryki na poziomie grup
Dokładność grupowania (spójność)
Ścisła dokładność grupowania
Wyniki lematyzacji
Model | Bez kontekstu | Z kontekstem zdaniowym | ||||
Dokładność | Dokł. grupa | Dokł. grupa i lemat | Dokładność | Dokł. grupa | Dokł. grupa i lemat | |
SpaCy | 50.18% | 14.52% | 13.50% | 52.94% | 16.26% | 15.44% |
Stanza | 73.41% | 53.58% | 50.41% | 73.35% | 51.94% | 48.77% |
Hydra | 72.01% | 49.08% | 46.22% | 79.31% | 62.47% | 60.22% |
GPT4o | 72.81% | 53.07% | 49.90% | 78.57% | 62.99% | 59.41% |
DeepSeek-R1 | 75.13% | 51.53% | 49.80% | 77.51% | 57.16% | 55.32% |
Kluczowe wnioski
Filtrowanie:
Grupowanie:
Podsumowanie:
Generowanie definicji | Wstęp
Obserwatorium Językowego Uniwersytetu Warszawskiego
Neologizm
LLM
Przykłady użycia
Definicje
Definicje Referencyjne
Ocena
LLM Judge
Generowanie definicji | Zapytanie
Prompt Template
Wciel się w rolę językoznawcy. Twoim zadaniem jest napisanie definicji podanego słowa wzorując się na {num_examples} przykładach. Upewnij się żeby treść definicji była zwięzła i klarowna. Generuj tekst wyłącznie w języku polskim. Jeśli jest to konieczne zawrzyj kontekst w jakim dane słowo może być użyte.�
[Słowo]
{neologism}�
[Przykład 1]
{example_1}�
…�
[Definicja]��
Neologizm: alkotubka
Przykłady użycia:
Generowanie definicji | Ewaluacja
Pointwise Evaluation
LLM Judge
Correct
Incorrect
Pairwise Evaluation
LLM Judge
Draw
Lose
Win
Generowanie definicji | Wyniki
Wnioski:
Generowanie definicji | DeepSeek-R1
Pomysł DeepSeek-R1:
Czemu DeepSeek-R1:
DeepSeek Response
<think>
Okay, so I need to define the word "alkotubka". First, I should figure out what this word means. Let me break it down. "Alko" probably comes from "alkohol", which is Polish for alcohol. "Tubka" is a diminutive of "tubka", which means a small tube. So, putting it together, "alkotubka" might be a small tube containing alcohol …
</think>�
<answer>
Alkotubka – potoczne określenie małego, przenośnego pojemnika (zwykle w kształcie tubki) zawierającego alkohol …
</answer>
Generowanie definicji | Wyniki
Wnioski:
Generowanie definicji | Metaewaluacja
Pointwise Evaluation
Generowanie definicji | Metaewaluacja
Pairwise Evaluation
Kategoryzacja | Wstęp
Sentyment
Dziedzina życia
Kategoryzacja | Wyniki
Wnioski:
Interfejs użytkownika
Przykładowa analiza
Co dalej?
Polski neologizm tygodnia
Polski neologizm tygodnia
Polski neologizm tygodnia
Więcej planów
W realizacji:
Na przyszłość:
Dziękujemy!
Artykuł
Demo