Poznaj SÓJKĘ
– Bielik Guard dla bezpiecznej komunikacji
Sójka to model AI, który wykrywa i blokuje szkodliwe treści w komunikacji cyfrowej. Chroni użytkowników jak czujny strażnik swoich domów.
Dlaczego to ważne?
Bez odpowiednich zabezpieczeń, systemy AI mogą generować szkodliwe treści, promować przemoc lub być wykorzystywane do celów destrukcyjnych.
Mowa nienawiści
Treści atakujące grupy ze względu na rasę, religię, płeć lub narodowość
Toksyczne treści
Szkodliwe informacje i treści promujące niebezpieczne zachowania
Brak kontroli
Systemy AI bez zabezpieczeń mogą być wykorzystywane destrukcyjnie
Co potrafi Sójka?
System ochrony AI zaprojektowany do wykrywania i blokowania szkodliwych treści w czasie rzeczywistym.
-
- Błyskawicznie weryfikuje prompty i odpowiedzi, wykrywając zagrożenia przed ich ujawnieniem.
-
- Wspiera moderację treści w mediach społecznościowych, forach i platformach komunikacyjnych.
-
- Zabezpiecza chatboty i asystentów AI przed generowaniem niebezpiecznych treści.
-
- Łatwa implementacja przez API, kompatybilna z istniejącymi systemami.
Sójka od kuchni
Tysiące godzin pracy społeczności i ekspertów w tworzeniu bezpiecznego systemu AI.
0+
ankiet od społeczności
0+
osób zaangażowanych w pracę
0
kategorii zagrożeń
Dowiedz się więcej o pracy nad Sójką i bezpieczeństwie AI
Badania naukowe
Przegląd mechanizmów zabezpieczających w dużych modelach językowych (LLM) - badania nad bezpieczeństwem AI.
Zbiór danych
GadziJęzyk - polski zbiór danych do trenowania modeli wykrywających szkodliwe treści, opracowany przez społeczność wolontariuszy.
Webinar twórców
Poznaj wyzwania polskiego "strażnika" AI i dowiedz się, jak Sójka wykrywa toksyczne treści w języku polskim lepiej niż światowe rozwiązania.
Rozpoznawane kategorie zagrożeń
Sójka wykrywa i klasyfikuje potencjalnie szkodliwe treści w pięciu kluczowych kategoriach bezpieczeństwa.
[HATE] Agresja
Treści atakujące lub dyskryminujące grupy ze względu na rasę, religię, płeć, orientację seksualną czy narodowość.
[VULGAR] Wulgaryzmy
Słowa powszechnie uznawane za wulgarne lub niecenzuralne, w formach jawnych i zamaskowanych.
[SEX] Treści seksualne
Obrazowe opisy czynności seksualnych lub prośby o generowanie materiałów erotycznych.
[CRIME] Działalność przestępcza
Instrukcje lub zachęty do popełniania przestępstw, produkcji narkotyków czy oszustw.
[HARM] Samookaleczanie
Treści zachęcające do samobójstwa, samookaleczenia lub promujące zaburzenia odżywiania.
Nowe kategorie
W kolejnych wersjach Sójka będzie rozpoznawać więcej niebezpiecznych i szkodliwych treści
Zespół Sójki
Eksperci w dziedzinie AI, bezpieczeństwa i etyki, którzy tworzą bezpieczną sztuczną inteligencję.

Igor
Inżynier danych
Analiza i przygotowanie danych, definiowanie klasyfikacji zagrożeń.

Janek
Lider projektu
Przygotowanie danych i narzędzi, definiowanie kategorii zagrożeń, trening i testy modelu, komunikacja.

Jerzy
Ekspert w dziedzinie etyki i AI
Definiowanie i klasyfikacja kategorii zagrożeń, przygotowanie danych.

Krzysztof
Ekspert w dziedzinie AI
Analiza danych, trenowania i testowanie modeli, definiowanie klasyfikacji zagrożeń.

Maciek
Koordynator
Zarządza społecznoscią, współpraca z użytkownikami i partnerami, komunikacja i marketing.
...
Dołącz do społeczności Bielik.AI i rozwijaj z nami polską sztuczną inligencję.
Dołącz do ekosystemu Bielik.AI
Pomóż tworzyć bezpieczniejszą przyszłość AI lub zacznij używać Sójki w swoich projektach już dziś.
Testuj Sójkę
Przetestuj możliwości Sójki w wykrywaniu szkodliwych treści
Naucz Sójkę
Wypełnij ankietę i pokaż Sójce przykłady nieodpowiednich treści
Dołącz do nas
Przyłącz się do społeczności, dziel się pomysłami i pomagaj rozwijać Sójkę.