18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
Strona wykorzystuje mechanizm ciasteczek - małych plików zapisywanych w przeglądarce internetowej - w celu identyfikacji użytkownika. Więcej o ciasteczkach dowiesz się tutaj.
Obsługa sesji użytkownika / odtwarzanie filmów:


Zabezpiecznie Google ReCaptcha przed botami:


Zanonimizowane statystyki odwiedzin strony Google Analytics:
Brak zgody
Dostarczanie i prezentowanie treści reklamowych:
Reklamy w witrynie dostarczane są przez podmiot zewnętrzny.
Kliknij ikonkę znajdującą się w lewm dolnym rogu na końcu tej strony aby otworzyć widget ustawień reklam.
Jeżeli w tym miejscu nie wyświetił się widget ustawień ciasteczek i prywatności wyłącz wszystkie skrypty blokujące elementy na stronie, na przykład AdBlocka lub kliknij ikonkę lwa w przeglądarce Brave i wyłącz tarcze
Główna Poczekalnia (4) Soft (3) Dodaj Obrazki Dowcipy Popularne Losowe Forum Szukaj Ranking
Wesprzyj nas Zarejestruj się Zaloguj się
📌 Wojna na Ukrainie Tylko dla osób pełnoletnich - ostatnia aktualizacja: Dzisiaj 17:00
📌 Konflikt izrealsko-arabski Tylko dla osób pełnoletnich - ostatnia aktualizacja: Dzisiaj 12:47
Uczelnie stworzyły Sztuczną Inteligencję do identyfikowania mowy nienawiści i odkryły, że Murzyni w USA są najgorszymi przestępcami.

(w skrócie, więcej info w źródle na dole)

Najnowsze badania wykazały, że sztuczna inteligencja stworzona do oznakowywania obraźliwych treści może "dyskryminować grupy które najczęściej padają celem ataków, które chcemy wykryć". (hehehe lol)

"Rezultaty pokazują, że tweety napisane w języku afrykańsko-amerykańskim są o wiele częściej obraźliwe. Jeśli te anty-obraźliwe systemy zostaną użyte, będą miały nieproporcjonalnie większy negatywny impakt na afro-amerykanów w mediach społecznościowych"

źródło: brasspills.com/colleges-creates-ai-to-identify-hate-speech-and-finds-b...

No jestem w kurewskim szoku
Nie wierzę, że czarni są bardziej rasistowscy od białych.
Zgłoś

Zrzutka na serwery i rozwój serwisu

Witaj użytkowniku sadistic.pl,

Od czasu naszej pierwszej zrzutki minęło już ponad 7 miesięcy i środki, które na niej pozyskaliśmy wykorzystaliśmy na wymianę i utrzymanie serwerów.
Niestety sytaucja związana z brakiem reklam nie uległa poprawie i w tej chwili możemy się utrzymać przy życiu wyłącznie z wpłat użytkowników.

Zachęcamy zatem do wparcia nas w postaci zrzutki - jednorazowo lub cyklicznie. Zarejestrowani użytkownicy strony mogą również wsprzeć nas kupując usługę Premium (więcej informacji).

 już wpłaciłem / nie jestem zainteresowany Link do Zrzutki
Avatar
Kacu63 2019-08-26, 18:31 1
czarni uwazaja ze im sie nalezy bycie rasistami, tak jakbysmy sobie uprzywijelowali nasze cywilizacje tylko i wylacznie na ich krzywdzie
Zgłoś
Avatar
mazga50 2019-08-26, 19:56
Oj tam oj ta. Doda się kilka skryptów i dyskryminatorów do oprogramowania i będzie zgodnie z lewacką propagandą... yyy... tzn. z poprawnością polityczną.
Zgłoś
Avatar
edmund 2019-08-26, 20:21
to stary , ale prawdziwy temat, było tam jeszcze kilka tematów między innymi dotyczyły żydów,
z tego co pamiętam maszynę wyłączono, bo za bardzo, dla lewaków,
wnioski, doświadczenia , były szokujące
Zgłoś
Avatar
AlaksanderLukaszenka 2019-08-26, 20:33 1
Czyli sztuczna inteligencja jest rasistowska? A tak na poważnie. To nie pierwszy przypadek kiedy AI okazała się niepoprawna politycznie i trzeba było wstrzymać jakiś projekt.

Zurcio50 napisał/a:

Nie jestem rasistą, bo rasizm to przestępstwo, a przestępstwa są dla czarnych.



No właśnie, a ja do czarnych nic nie mam, nawet szacunku.
Zgłoś
Avatar
SirMajkel 2019-08-26, 21:03
brasspills? Co to za źródło jest? Coś w stylu aszdziennik?
Jakiś koleś sobie coś napisał a ty mu wierzysz.

Znaczy prawdopodobnie to jest prawda tylko strona jakaś z dupy.
Zgłoś
Avatar
rok333 2019-08-26, 23:21
traf napisał/a:

projekt natychmiast zostanie wstrzymany za rasistowskie odkrycie



Już pewne został wstrzymany i wyjebany do śmieci
Zgłoś
Avatar
raistpol 2019-08-27, 14:18
edmund napisał/a:

to stary , ale prawdziwy temat, było tam jeszcze kilka tematów między innymi dotyczyły żydów,
z tego co pamiętam maszynę wyłączono, bo za bardzo, dla lewaków,
wnioski, doświadczenia , były szokujące



Jaki temat? Praca jest z 29 maja.

A zamiast jeździć po czarnuchach i sjw, to ktoś z was chociaż przez sekundę rzucił okiem na tabelki, albo przeczytał pierwszy akapit Conclusions?
We wnioskach, stwierdzają, że czarni będą bardziej penalizowani.

Our study is the first to measure racial bias in hate
speech and abusive language detection datasets.
We find evidence of substantial racial bias in all
of the datasets tested. This bias tends to persist
even when comparing tweets containing certain
relevant keywords. While these datasets are still
valuable for academic research, we caution against
using them in the field to detect and particularly
to take enforcement action against different types
of abusive language. If they are used in this way
we expect that they will systematically penalize
African-Americans more than whites, resulting in
racial discrimination. We have not evaluated these
datasets for bias related to other ethnic and racial
groups, nor other protected categories like gender and sexuality, but expect that such bias is also
likely to exist. We recommend that efforts to measure and mitigate bias should start by focusing on
how bias enters into datasets as they are collected
and labeled. In particular, future work should focus on the following three areas.
First, we expect that some biases emerge at
the point of data collection. Some studies sampled tweets using small, ad hoc sets of keywords created by the authors (Waseem and Hovy,
2016; Waseem, 2016; Golbeck et al., 2017), an
approach demonstrated to produce poor results
(King et al., 2017). Others start with large crowdsourced dictionaries of keywords, which tend to
include many irrelevant terms, resulting in high
rates of false positives (Davidson et al., 2017;
Founta et al., 2018). In both cases, by using keywords to identify relevant tweets we are likely
to get non-representative samples of training data
that may over- or under-represent certain communities. In particular, we need to consider whether
the linguistic markers we use to identify potentially abusive language may be associated with
language used by members of protected categories

innymi słowy, jak opracować dane, by dla rasy czarnej, słowo "nigger" nie miało wydźwięku

Racism
Sexism
Offensive
Abusive

beka jak zawsze
Zgłoś
Avatar
s................s 2019-08-30, 0:00
Zurcio50 napisał/a:

Nie jestem rasistą, bo rasizm to przestępstwo, a przestępstwa są dla czarnych.



AlaksanderLukaszenka napisał/a:

No właśnie, a ja do czarnych nic nie mam, nawet szacunku.



Mądrze prawicie moi postępowi przyjaciele! Skwituję to pacyfistycznym obrazkiem!

Zgłoś
Krajowa Rada Radiofonii i Telewizji zobligowała nas do oznaczania kategorii wiekowych materiałów wideo wgranych na nasze serwery. W związku z tym, zgodnie ze specyfikacją z tej strony oznaczyliśmy wszystkie materiały jako dozwolone od lat 16 lub 18.

Jeśli chcesz wyłączyć to oznaczenie zaznacz poniższą zgodę:

  Oświadczam iż jestem osobą pełnoletnią i wyrażam zgodę na nie oznaczanie poszczególnych materiałów symbolami kategorii wiekowych na odtwarzaczu filmów
Funkcja pobierania filmów jest dostępna w opcji Premium
Usługa Premium wspiera nasz serwis oraz daje dodatkowe benefity m.in.:
- całkowite wyłączenie reklam
- możliwość pobierania filmów z poziomu odtwarzacza
- możliwość pokolorowania nazwy użytkownika
... i wiele innnych!
Zostań użytkownikiem Premium już od 4,17 PLN miesięcznie* * przy zakupie konta Premium na rok. 6,50 PLN przy zakupie na jeden miesiąc.
* wymaga posiadania zarejestrowanego konta w serwisie
 Nie dziękuję, może innym razem