Wykorzystanie sztucznej inteligencji w polityce i marketingu politycznym
[2023.12.08] Sztuczna inteligencja może pomóc w lepszym zrozumieniu preferencji i potrzeb społecznych poprzez analizę danych z mediów społecznościowych, portali internetowych czy wywiadów ankietowych. Może również wspomagać proces podejmowania decyzji poprzez prognozowanie wyników wyborów czy rekomendowanie strategii politycznych.
W marketingu politycznym, AI może być wykorzystywana do personalizacji komunikacji z wyborcami poprzez dostosowanie treści i przekazów reklamowych do indywidualnych preferencji i zachowań. Może również wspomagać kampanie reklamowe poprzez optymalizację mediów społecznościowych, analizę efektywności reklam czy identyfikację potencjalnych zwolenników.
Jednak wykorzystanie AI w polityce i marketingu politycznym wiąże się również z pewnymi kontrowersjami i wyzwaniami, takimi jak kwestie prywatności czy etyki związane z manipulacją wyborców. Dlatego ważne jest odpowiednie regulowanie i kontrolowanie wykorzystania AI w tych obszarach oraz dbanie o transparentność działań.
Wypowiedzi na temat wykorzystania sztucznej inteligencji na forum politycznym
[Listopad 2023] WALL STREET JOURNAL: „Czy cokolwiek jeszcze jest prawdą? Tworzenie i rozpowszechnianie przekonującej propagandy, wymagało kiedyś zasobów państwa. Teraz wystarczy smartfon.
Generatywna Sztuczna Inteligencja jest teraz w stanie tworzyć fałszywe obrazy, klony naszych głosów, a nawet filmy przedstawiające i zniekształcające wydarzenia na świecie. Rezultat: od naszych osobistych kręgów po cyrki polityczne – wszyscy muszą teraz zadać sobie pytanie, czy to, co widzą i słyszą, jest prawdą.
Od dawna ostrzegano nas o tym, że media społecznościowe mogą zniekształcać nasz pogląd na świat, a teraz istnieje ryzyko rozpowszechniania w mediach społecznościowych większej niż kiedykolwiek wcześniej liczby fałszywych i wprowadzających w błąd informacji. Co równie ważne, narażenie na podróbki generowane przez sztuczną inteligencję może sprawić, że będziemy kwestionować autentyczność wszystkiego, co widzimy. Prawdziwe obrazy i prawdziwe nagrania można odrzucić jako fałszywe.
„Kiedy pokazuje się ludziom deepfake i generatywną sztuczną inteligencję, często wychodzą z eksperymentu i mówią: «Po prostu w nic już nie wierzę»” – mówi David Rand, profesor w MIT, który bada tworzenie, rozpowszechnianie i wpływ dezinformacji.”
https://wsj-article-webview-generator-prod.sc.onservo.com/webview/WP-WSJ-0001352846
[Październik 2023] TECHNOLOGY REVIEW: Jak generatywna sztuczna inteligencja wspomaga rozprzestrzenianie się dezinformacji i propagandy
” (…) W zeszłym roku sztuczna inteligencja wzmogła wysiłki państwa mające na celu ograniczenie wolności w Internecie. Rządy i podmioty polityczne na całym świecie, zarówno w demokracjach, jak i autokracjach, wykorzystują sztuczną inteligencję do generowania tekstów, obrazów i filmów, aby manipulować opinią publiczną na swoją korzyść i automatycznie cenzurować krytyczne treści w Internecie. W nowym raporcie opublikowanym przez Freedom House, grupę obrońców praw człowieka, badacze udokumentowali wykorzystanie generatywnej sztucznej inteligencji w 16 krajach „w celu siania wątpliwości, oczerniania przeciwników lub wpływania na debatę publiczną”(…)”
Dlaczego AI może być dużym problemem podczas wyborów prezydenckich w 2024 roku? Łatwy dostęp do platform takich jak ChatGPT zwiększa ryzyko dla demokracji.
Podczas gdy Wielka Brytania i Unia Europejska poczyniły postępy w wysiłkach na rzecz uregulowania technologii sztucznej inteligencji, w zeszłym roku Biały Dom przedstawił projekt Karty praw AI, którą warto przeczytać, jeśli jeszcze jej nie widziałeś. Został stworzony przez Biuro ds. Nauki i Technologii Białego Domu i ma pięć głównych założeń:
- Należy chronić ludzi przed niebezpiecznymi lub nieefektywnymi systemami AI;
- Ludzie nie spotykać się z dyskryminacją ze strony algorytmów, a systemy powinny być wykorzystywane i projektowane w sposób sprawiedliwy.
- Systemy AI powinny być chronione przed nadużyciami w zakresie praktyk związanych z danymi za pomocą wbudowanych zabezpieczeń i powinny mieć kontrolę nad sposobem wykorzystania danych na ich temat.
- Ludzie wiedzieć, że używany jest zautomatyzowany system i rozumieć, w jaki sposób i dlaczego przyczynia się on do wyników, które na nich wpływają.
- Człowiek powinien mieć możliwość rezygnacji, w stosownych przypadkach, oraz mieć dostęp do osoby, która może szybko rozważyć napotkane problemy i im zaradzić.
https://www.linkedin.com/feed/update/urn:li:activity:7111228127829274624?
[Listopad 2023] NEW YORK TIMES na temat wysiłków rządu USA aby przeciąć związki twórców Sztucznej Inteligencji z Chinami. Amerykańskie agencje szpiegowskie ostrzegały w sprawie emirackiej firmy G42 i jej współpracy z dużymi chińskimi firmami, że urzędnicy amerykańscy uważają ją za zagrożenie dla bezpieczeństwa.
Kiedy w czerwcu tajny doradca Zjednoczonych Emiratów Arabskich ds. bezpieczeństwa narodowego, szejk Tahnoon bin Zayed, odwiedził Biały Dom, jego amerykański odpowiednik Jake Sullivan poruszył delikatną kwestię: G42, firma zajmująca się sztuczną inteligencją kontrolowana przez szejka, według amerykańskich urzędników ukrywa zakres swojej współpracy z Chinami.
https://www.nytimes.com/2023/11/27/us/politics/ai-us-uae-china-security-g42.html
Wybór cytatów opracował Robert Nogacki. W sporządzaniu komentarzy uczestniczył ChatGPT. Treści opracowane w dniu 8 grudnia 2023 r. Kto wie czy jutro również będą aktualne? AI zmienia się codziennie.