18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
Główna Poczekalnia (4) Soft (1) Dodaj Obrazki Filmy Dowcipy Popularne Forum Szukaj Ranking
Zarejestruj się Zaloguj się
📌 Wojna na Ukrainie - ostatnia aktualizacja: Dzisiaj 20:00
📌 Konflikt izrealsko-arabski - ostatnia aktualizacja: Dzisiaj 2:25
Uczelnie stworzyły Sztuczną Inteligencję do identyfikowania mowy nienawiści i odkryły, że Murzyni w USA są najgorszymi przestępcami.

(w skrócie, więcej info w źródle na dole)

Najnowsze badania wykazały, że sztuczna inteligencja stworzona do oznakowywania obraźliwych treści może "dyskryminować grupy które najczęściej padają celem ataków, które chcemy wykryć". (hehehe lol)

"Rezultaty pokazują, że tweety napisane w języku afrykańsko-amerykańskim są o wiele częściej obraźliwe. Jeśli te anty-obraźliwe systemy zostaną użyte, będą miały nieproporcjonalnie większy negatywny impakt na afro-amerykanów w mediach społecznościowych"

źródło: brasspills.com/colleges-creates-ai-to-identify-hate-speech-and-finds-b...

No jestem w kurewskim szoku
Nie wierzę, że czarni są bardziej rasistowscy od białych.
Zgłoś
Avatar
Kacu63 2019-08-26, 18:31 1
czarni uwazaja ze im sie nalezy bycie rasistami, tak jakbysmy sobie uprzywijelowali nasze cywilizacje tylko i wylacznie na ich krzywdzie
Zgłoś
Avatar
mazga50 2019-08-26, 19:56
Oj tam oj ta. Doda się kilka skryptów i dyskryminatorów do oprogramowania i będzie zgodnie z lewacką propagandą... yyy... tzn. z poprawnością polityczną.
Zgłoś
Avatar
edmund 2019-08-26, 20:21
to stary , ale prawdziwy temat, było tam jeszcze kilka tematów między innymi dotyczyły żydów,
z tego co pamiętam maszynę wyłączono, bo za bardzo, dla lewaków,
wnioski, doświadczenia , były szokujące
Zgłoś
Avatar
AlaksanderLukaszenka 2019-08-26, 20:33 1
Czyli sztuczna inteligencja jest rasistowska? A tak na poważnie. To nie pierwszy przypadek kiedy AI okazała się niepoprawna politycznie i trzeba było wstrzymać jakiś projekt.

Zurcio50 napisał/a:

Nie jestem rasistą, bo rasizm to przestępstwo, a przestępstwa są dla czarnych.



No właśnie, a ja do czarnych nic nie mam, nawet szacunku.
Zgłoś
Avatar
SirMajkel 2019-08-26, 21:03
brasspills? Co to za źródło jest? Coś w stylu aszdziennik?
Jakiś koleś sobie coś napisał a ty mu wierzysz.

Znaczy prawdopodobnie to jest prawda tylko strona jakaś z dupy.
Zgłoś
Avatar
rok333 2019-08-26, 23:21
traf napisał/a:

projekt natychmiast zostanie wstrzymany za rasistowskie odkrycie



Już pewne został wstrzymany i wyjebany do śmieci
Zgłoś
Avatar
raistpol 2019-08-27, 14:18
edmund napisał/a:

to stary , ale prawdziwy temat, było tam jeszcze kilka tematów między innymi dotyczyły żydów,
z tego co pamiętam maszynę wyłączono, bo za bardzo, dla lewaków,
wnioski, doświadczenia , były szokujące



Jaki temat? Praca jest z 29 maja.

A zamiast jeździć po czarnuchach i sjw, to ktoś z was chociaż przez sekundę rzucił okiem na tabelki, albo przeczytał pierwszy akapit Conclusions?
We wnioskach, stwierdzają, że czarni będą bardziej penalizowani.

Our study is the first to measure racial bias in hate
speech and abusive language detection datasets.
We find evidence of substantial racial bias in all
of the datasets tested. This bias tends to persist
even when comparing tweets containing certain
relevant keywords. While these datasets are still
valuable for academic research, we caution against
using them in the field to detect and particularly
to take enforcement action against different types
of abusive language. If they are used in this way
we expect that they will systematically penalize
African-Americans more than whites, resulting in
racial discrimination. We have not evaluated these
datasets for bias related to other ethnic and racial
groups, nor other protected categories like gender and sexuality, but expect that such bias is also
likely to exist. We recommend that efforts to measure and mitigate bias should start by focusing on
how bias enters into datasets as they are collected
and labeled. In particular, future work should focus on the following three areas.
First, we expect that some biases emerge at
the point of data collection. Some studies sampled tweets using small, ad hoc sets of keywords created by the authors (Waseem and Hovy,
2016; Waseem, 2016; Golbeck et al., 2017), an
approach demonstrated to produce poor results
(King et al., 2017). Others start with large crowdsourced dictionaries of keywords, which tend to
include many irrelevant terms, resulting in high
rates of false positives (Davidson et al., 2017;
Founta et al., 2018). In both cases, by using keywords to identify relevant tweets we are likely
to get non-representative samples of training data
that may over- or under-represent certain communities. In particular, we need to consider whether
the linguistic markers we use to identify potentially abusive language may be associated with
language used by members of protected categories

innymi słowy, jak opracować dane, by dla rasy czarnej, słowo "nigger" nie miało wydźwięku

Racism
Sexism
Offensive
Abusive

beka jak zawsze
Zgłoś
Avatar
s................s 2019-08-30, 0:00
Zurcio50 napisał/a:

Nie jestem rasistą, bo rasizm to przestępstwo, a przestępstwa są dla czarnych.



AlaksanderLukaszenka napisał/a:

No właśnie, a ja do czarnych nic nie mam, nawet szacunku.



Mądrze prawicie moi postępowi przyjaciele! Skwituję to pacyfistycznym obrazkiem!

Zgłoś