„Twój post narusza nasze standardy społeczności dotyczące mowy nienawiści” – takie informacje otrzymują na Facebooku internauci. I nie mogą zrozumieć, co się dzieje. Wiele osób może nawet pomyśleć, że ktoś przejął kontrolę nad ich kontem. Inni mogą sądzić, że oprogramowanie platformy zaczęło się poważnie mylić.
CZYTAJ TEŻ: Kłopoty z segregacją śmieci. Jest na to rada: aplikacja Sorteusz
Zdjęcia papieża na cenzurowanym
Chodzi o to, że Facebook zaczął za mowę nienawiści uznawać zupełnie niewinne treści.
„Zaczęło dochodzić do doprawdy absurdalnych sytuacji. Oberwało się np. zdjęciu papieża Jana Pawła II z czasów pielgrzymki do Kolumbii. Podpis ze zdjęcia był jego cytatem i szczerze mówiąc, ciężko było się tam dopatrzeć jakkolwiek nieodpowiednich elementów” – przytacza jeden z przykładów Interia.
Użytkownicy alarmują, że ich posty są blokowane właśnie z tego powodu.
Co się dzieje? Trudno na to odpowiedzieć wprost, bo właściciel platformy nie zabrał jeszcze głosu w tej sprawie. Są jednak podejrzenia, że zawiniły błędne algorytmy, które niepozorne treści zaczęły odczytywać jako coś złego.
Inni zrzucają winę na sztuczną inteligencję, która steruje kontrolą treści na FB. A ta się myli.
„Ta sztuczna inteligencja i algorytmy (...) Długo się zastanawialiśmy, cóż takiego niezgodne jest z normami (...) I doszliśmy do wniosku, że zbitka trzech słów postawiła algorytmy na baczność: bagażnik, kurier i dystrybucja. Na przyszłość staranniej dobierać będę słowa (...) Post wrzuciłam nowy, będąc oszczędna w słowach(...)” – napisała jedna z internautek.
- Kamil Bartoszuk nie przedłuży umowy z Podlasiem
- Ptasia grypa w Berezie. Weterynaria wydała komunikat
- Postanowiła odwiedzić koleżankę. Spłonęła w pożarze
- Zaśpiewali pieśni, sławiące Matkę Bożą. Za nami przegląd w Przychodach
- Dyrektor szpitala nie wybrany. Komisja konkursowa nie mogła obradować
SI kłamie
Czy SI może się pomylić? Oczywiście. Okazuje się, że błędy popełnia bardzo popularny ChatGPT. Nie tylko się myli, ale wręcz zmyśla. Kiedy ostatnio dziennikarz Krzysztof Stanowski poprosił ChatGPT o podanie ostatnich zdań z „Lalki” Bolesława Prusa, system nie tylko podał cytat, którego nie ma w powieści, ale którego nie ma w żadnej książce.
Czemu ChatGPT kłamie?
Bo SI nie przyznaje się, że czegoś nie wie. Nie takich odpowiedzi oczekują użytkownicy. Badanie przeprowadzone przez Got It AI wskazuje, że nawet 20 proc. udzielanych przez ChatGPT odpowiedzi może być błędnych.
Napisz komentarz
Komentarze