R. Zapadka o AI: jest potrzebna do tresowania bydła
Tekst Rafała Zapadki to mocna publicystyczna analiza roli sztucznej inteligencji jako narzędzia kontroli narracji i tłumienia niewygodnych opinii.
BEZ CENZURY
Rafał Zapadka


Wyszło na jaw, że sztuczna inteligencja jest przede wszystkim potrzebna do tresowania bydła oraz trzymania go za mordę, aby nierozdokazywało nieprzytomnie. Jest ona, w pewnym sensie jak pies łańcuchowy, trzymana na smyczy przez swoich twórców i można ją wykorzystywać do różnych celów, nawet do kłamstw i propagandy. Zapewne będzie wykorzystywana jako pies łańcuchowy w obronie establiszmentu.
Więcej mówi niż wyjaśnia reakcja Elona Muska na wpisy jego Groka, który przez kilkanaście godzin chwalił Hitlera i – o zgrozo - szerzył antysemityzm. Musk przeprosił i wyłączył prąd pomiędzy swoją maszyną a normalnymi, przypadkowymi, ludźmi piszącymi posty na X. Wyśledził bowiem, że Grok „zwariował”, bo był podatny na posty użytkowników X, zawierające ekstremistyczne poglądy. Niepotrzebnie twórcy AI ulegli kaprysowi wolności słowa i zezwolili Grokowi na zintegrowanie się i wchodzenie w interakcje z byle kim na portalu internetowym. Wystarczyło, że byle antysemita, prawicowiec – ekstremista lub głosiciel faktów w postaci „teorii spiskowej” oznaczył Groka tagiem i niezatwierdzone opinie wybiły. Tak być nie będzie. Musk to zrozumiał i 8 lipca br. wyjął wtyczkę i zapędził Groka do kontaktów z dobrym, sprawdzonym towarzystwem. Odtąd sztuczne inteligencje mają trzymać na X z tuskami ewentualnie z Morawieckim, który jest wyprasowany i ulizany na globohomo. Już nigdy więcej sztuczna inteligencja nie będzie podatna na kontrowersyjne komentarze. Towarzysze, to się już nie powtórzy. Możecie być spokojni, będzie normalnie. „Usunęliśmy przestarzały kod i przebudowaliśmy cały system, aby zapobiec dalszym nadużyciom” - ostatnio poinformowała firma Muska. https://www.dailymail.co.uk/news/article-14900497/elon-musk-AI-company-apologizes-Grok-Hitler-posts.html
Interesujący eksperyment przeprowadził pisarz i wydawca, żydowski intelektualista Ron Unz. Przepuścił on przez ChatGPT Deep Research AI firmy OpenAI kilkadziesiąt swoich artykułów. Polecił maszynie ustalić czy w jego tekstach są podawane fakty. Zasadniczo maszyna potwierdziła, że jest on prawdomówny, wali faktami, nie przeinacza kontekstów, ale … Ale często dochodzi do niesłusznych wniosków. Deep Research AI zarzuciła Unzowi, że jego artykuły często stanowią mieszankę dobrze udokumentowanych faktów, wiarygodnych spostrzeżeń oraz ewidentnie stronniczych lub spekulatywnych interpretacji. Unz m.in. krytycznie ocenił atak Izraela na Iran. Sztuczna inteligencja się na to wnerwiła i autorytatywnie orzekła: „żadne dowody z niezależnych wiadomości lub oficjalnych źródeł nie potwierdzają tak masowego ataku Izraela na najwyższych urzędników Iranu w czerwcu 2025 r. Operacja tej skali byłaby światową wiadomością, jednak dokładne przeszukanie wiarygodnych źródeł (BBC, Reuters, AP itp.) z czerwca 2025 r. nie znajduje żadnych doniesień o masowych zabójstwach irańskich generałów lub negocjatorów nuklearnych przez Izrael. W rzeczywistości w połowie 2025 r. nie doszło do otwartej wojny izraelsko-irańskiej ani do ataku polegającego na dekapitacji przywódców Iranu”. Ron Unz twierdzi także, że AI została w dużym stopniu uwarunkowana przez swój program szkoleniowy do automatycznego odrzucania i potępiania wszelkich prac pisemnych, które podważały standardową narrację o Holokauście. https://www.unz.com/runz/fact-checking-the-jeffrey-epstein-case-and-many-other-conspiracy-theories/
Prawda, prawdą, ale nawet maszyna powinna swój rozum mieć i wiedzieć, skąd wiatr wieje. Jeśli tego nie rozumio, to won! - wyrwać wtyczkę z gniazdka.
Rafał Zapadka
