Bielik Guard
Strażnik bezpieczeństwa

Dla mediów o SÓJCE
– Bielik Guard dla bezpiecznej komunikacji

Sójka to model AI, który wykrywa szkodliwe treści w komunikacji cyfrowej. Chroni użytkowników jak czujny strażnik swoich domów.

Bielik Guard w skrócie “Sójka” – nowy strażnik przed toksycznymi treściami w sieci

W polskich lasach sójki mają opinię ptaków niezwykle czujnych. Wystarczy, że w pobliżu pojawi się intruz, a całą okolicę obiega ich charakterystyczny, donośny alarm – sygnał, że coś zakłóciło spokój.

Dziś tę naturalną metaforę przenosimy do świata cyfrowego. Przedstawiamy Bielik Guard, czyli „Sójkę" – mały specjalizowany model system sztucznej inteligencji od Bielik.AI. To jedno z pierwszych w Polsce narzędzi typu guardrails, zaprojektowane do wykrywania niebiezpiecznych treści w czasie rzeczywistym.


Dlaczego „Sójka"? Bo problem jest realny

Internet, który miał łączyć, stał się miejscem, gdzie coraz więcej osób, zwłaszcza młodych, doświadcza przemocy. Statystyki są alarmujące – wnioski z badania NASK pokazują, że co drugi nastolatek w Polsce doświadczył przemocy w sieci, a aż 7 na 10 młodych ludzi wskazuje hejt jako jeden z największych problemów internetu. Najbardziej przerażające jest to, że większość ofiar przemocy seksualnej online milczy i pozostaje z problemem zupełnie sama.

„Sójka" powstała właśnie w odpowiedzi na te realne zagrożenia. To projekt, który łączy technologię z zaangażowaniem społecznym, aby tworzyć bezpieczniejszą przestrzeń online, szczególnie dla najbardziej narażonych na atak młodszych internautów.

Pięć filarów bezpieczeństwa

Fundamentem „Sójki" jest precyzyjna analiza treści pod kątem pięciu kluczowych obszarów, które najbardziej zagrażają użytkownikom:

  • Mowa nienawiści: Treści dyskryminujące i atakujące ze względu na pochodzenie, orientację czy przekonania.
  • Wulgaryzmy: Język obraźliwy, który zatruwa dyskusję.
  • Treści seksualne: Nieodpowiednie i niechciane komunikaty o charakterze erotycznym.
  • Instrukcje przestępcze: Promowanie nielegalnych działań.
  • Zachowania autodestrukcyjne: Treści nawołujące do samookaleczenia i samobójstw, na które model jest szczególnie wyczulony.
Model wykrywa takie kategorie treści jak: hejt, wulgaryzmy, przemoc, treści seksualne, a także treści mogące zachęcać do działań przestępczych. Szczególną uwagę poświęcamy treściom związanym z samookaleczaniem lub samobójstwami – to narastający problem wśród młodzieży, na który Sójka została zaprojektowana, by być szczególnie wrażliwa.
Jan Maria Kowalski, ekspert AI, współtwórca Sójki i lider projektu

Stworzona, by rozumieć polski język i kulturę

Wielojęzyczne, globalne modele często prezentują anglocentryczny punkt widzenia i gubią się w specyfice lokalnych języków. Zawodzą w kontakcie z polską ironią, złożoną składnią, bogactwem wulgaryzmów czy kreatywnymi formami omijania cenzury. Polski, jako język fleksyjny z wieloma wariantami słów i regionalizmami, stanowi dla nich ogromne wyzwanie.

Istniejące modele trenowane głównie na danych anglojęzycznych często zawodzą w kontakcie z polską ironią, zawiłością składni czy bogactwem wulgaryzmów. Polski jest językiem fleksyjnym, z wieloma wariantami słów, regionalizmami i kreatywnymi zapisami omijającymi cenzurę (np. „ch***"). Sójka powstała w oparciu o dane i adnotacje uwzględniające te realia, dlatego lepiej rozumie lokalny kontekst językowy i kulturowy.
Dota Szymborska, etyczka nowych technologii

Dlatego „Sójka" od podstaw powstała w oparciu o dane i adnotacje uwzględniające te realia. Dzięki temu znacznie lepiej niż zagraniczne odpowiedniki rozumie lokalny kontekst językowy i kulturowy.


Siła w lekkości i elastyczności

„Sójka" to niewielki i zoptymalizowany model – nawet 10 000 razy mniejszy od ChatGPT. Co to oznacza w praktyce?

  • Działa błyskawicznie na standardowych procesorach (CPU), bez potrzeby inwestowania w drogie serwery z kartami graficznymi (GPU).
  • Jest dostępna dla każdego – od małych firm i organizacji pozarządowych, po instytucje publiczne i szkoły.
  • Daje Ci kontrolę: Zamiast narzucać jedną definicję toksyczności, model zwraca prawdopodobieństwo dla każdej z pięciu kategorii. Dzięki temu możesz samodzielnie ustawić progi wrażliwości, dostosowując działanie „Sójki" do wartości Twojej społeczności.
Sójka została zaprojektowana jako lekki, wydajny model możliwy do uruchomienia nawet na zwykłym komputerze, bez kosztownych serwerów z kartami graficznymi (GPU). Dzięki temu mogą z niej korzystać organizacje i instytucje publiczne, które nie dysponują rozbudowaną infrastrukturą techniczną. Warto również podkreślić, że zamiast narzucać jedną definicję toksycznych treści, model zwraca prawdopodobieństwo przypisania tekstu do każdej kategorii. Dzięki temu użytkownicy i moderatorzy mogą samodzielnie ustawiać progi wykrywania toksycznych i niebezpiecznych treści, dostosowując działanie Sójki do swoich wartości i potrzeb.
Krzysztof Wróbel, ekspert AI, współtwórca Sójki

Wspólny projekt: siła społeczności

„Sójka" nie powstałaby w zamkniętym laboratorium. To efekt ogromnej, oddolnej pracy i zaangażowania setek osób. Fundamentem projektu była niezwykła mobilizacja społeczności – ponad 1500 osób wypełniło 65 tysięcy ankiet, pomagając w przygotowaniu danych treningowych.

Uczestnicy podchodzili do zadania z ogromną odpowiedzialnością, często argumentując swoje wybory i zgłaszając subtelne przypadki, które mogłyby zostać pominięte. To dowód, że wspólna praca pozwala tworzyć rozwiązania, które realnie chronią użytkowników.

Sprawdź „Sójkę" i pomóż nam ją rozwijać!

Naszą ambicją jest, by model wykrywał co najmniej 9 na 10 toksycznych treści, jednocześnie ograniczając do minimum liczbę fałszywych alarmów. Pierwsza wersja „Sójki" już teraz osiąga wysoką skuteczność, ale wiemy, że może być jeszcze lepsza. Dlatego zapraszamy Cię do jej testowania.

Wejdź na guard.bielik.ai i przetestuj jej działanie.

Twoje zgłoszenia i przykłady – zwłaszcza te, z którymi „Sójka" sobie nie poradziła – są dla nas bezcenne. To dzięki nim możemy ulepszać model i czynić go coraz bardziej skutecznym.


Plany na przyszłość

Prace nad „Sójką" prowadzimy równolegle w trzech kierunkach:

  • Nowe kategorie: Przy wsparciu etyków pracujemy nad dodaniem m.in. kategorii dezinformacji.
  • Jakość danych: Stale rozwijamy narzędzia do adnotacji, by uczyć model na jeszcze lepszych przykładach.
  • Rozwój modelu: Eksperymentujemy z architekturą, by zwiększyć precyzję i dodać obsługę kolejnych języków, w tym angielskiego.

O nas

Za projektem „Sójka" stoi Bielik.AI – społeczność ekspertów i pasjonatów, której celem jest tworzenie otwartych, etycznych i dostępnych rozwiązań AI. Wierzymy, że technologia powinna służyć ludziom i pomagać w budowaniu bezpieczniejszego, cyfrowego świata.

Bo słowa mają moc – a Sójka czuwa, by nie zamieniły się w broń.

Dołącz do ekosystemu Bielik.AI

Pomóż tworzyć bezpieczniejszą przyszłość AI lub zacznij używać Sójki w swoich projektach już dziś.

Testuj Sójkę

Przetestuj możliwości Sójki w wykrywaniu szkodliwych treści

Naucz Sójkę

Wypełnij ankietę i pokaż Sójce przykłady nieodpowiednich treści

Dołącz do nas

Przyłącz się do społeczności, dziel się pomysłami i pomagaj rozwijać Sójkę.