Wykorzystanie sztucznej inteligencji w polityce i marketingu politycznym

Wykorzystanie sztucznej inteligencji w polityce i marketingu politycznym

2024-01-15

 

[2023.12.08] Sztuczna inteligencja może pomóc w lepszym zrozumieniu preferencji i potrzeb społecznych poprzez analizę danych z mediów społecznościowych, portali internetowych czy wywiadów ankietowych. Może również wspomagać proces podejmowania decyzji poprzez prognozowanie wyników wyborów czy rekomendowanie strategii politycznych.

W marketingu politycznym, AI może być wykorzystywana do personalizacji komunikacji z wyborcami poprzez dostosowanie treści i przekazów reklamowych do indywidualnych preferencji i zachowań. Może również wspomagać kampanie reklamowe poprzez optymalizację mediów społecznościowych, analizę efektywności reklam czy identyfikację potencjalnych zwolenników.

Jednak wykorzystanie AI w polityce i marketingu politycznym wiąże się również z pewnymi kontrowersjami i wyzwaniami, takimi jak kwestie prywatności czy etyki związane z manipulacją wyborców. Dlatego ważne jest odpowiednie regulowanie i kontrolowanie wykorzystania AI w tych obszarach oraz dbanie o transparentność działań.

 

Wypowiedzi na temat wykorzystania sztucznej inteligencji na forum politycznym

 

[Listopad 2023]  WALL STREET JOURNAL: „Czy cokolwiek jeszcze jest prawdą? Tworzenie i rozpowszechnianie przekonującej propagandy, wymagało kiedyś zasobów państwa. Teraz wystarczy smartfon.

Generatywna Sztuczna Inteligencja jest teraz w stanie tworzyć fałszywe obrazy, klony naszych głosów, a nawet filmy przedstawiające i zniekształcające wydarzenia na świecie. Rezultat: od naszych osobistych kręgów po cyrki polityczne – wszyscy muszą teraz zadać sobie pytanie, czy to, co widzą i słyszą, jest prawdą.

Od dawna ostrzegano nas o tym, że media społecznościowe mogą zniekształcać nasz pogląd na świat, a teraz istnieje ryzyko rozpowszechniania w mediach społecznościowych większej niż kiedykolwiek wcześniej liczby fałszywych i wprowadzających w błąd informacji. Co równie ważne, narażenie na podróbki generowane przez sztuczną inteligencję może sprawić, że będziemy kwestionować autentyczność wszystkiego, co widzimy. Prawdziwe obrazy i prawdziwe nagrania można odrzucić jako fałszywe.

„Kiedy pokazuje się ludziom deepfake i generatywną sztuczną inteligencję, często wychodzą z eksperymentu i mówią: «Po prostu w nic już nie wierzę»” – mówi David Rand, profesor w MIT, który bada tworzenie, rozpowszechnianie i wpływ dezinformacji.

https://wsj-article-webview-generator-prod.sc.onservo.com/webview/WP-WSJ-0001352846

[Październik 2023] TECHNOLOGY REVIEW: Jak generatywna sztuczna inteligencja wspomaga rozprzestrzenianie się dezinformacji i propagandy

(…) W zeszłym roku sztuczna inteligencja wzmogła wysiłki państwa mające na celu ograniczenie wolności w Internecie. Rządy i podmioty polityczne na całym świecie, zarówno w demokracjach, jak i autokracjach, wykorzystują sztuczną inteligencję do generowania tekstów, obrazów i filmów, aby manipulować opinią publiczną na swoją korzyść i automatycznie cenzurować krytyczne treści w Internecie. W nowym raporcie opublikowanym przez Freedom House, grupę obrońców praw człowieka, badacze udokumentowali wykorzystanie generatywnej sztucznej inteligencji w 16 krajach „w celu siania wątpliwości, oczerniania przeciwników lub wpływania na debatę publiczną”(…)

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2023/10/04/1080801/generative-ai-boosting-disinformation-and-propaganda-freedom-house/amp/

 

Dlaczego AI może być dużym problemem podczas wyborów prezydenckich w 2024 roku? Łatwy dostęp do platform takich jak ChatGPT zwiększa ryzyko dla demokracji.

 

Podczas gdy Wielka Brytania i Unia Europejska poczyniły postępy w wysiłkach na rzecz uregulowania technologii sztucznej inteligencji, w zeszłym roku Biały Dom przedstawił projekt Karty praw AI, którą warto przeczytać, jeśli jeszcze jej nie widziałeś. Został stworzony przez Biuro ds. Nauki i Technologii Białego Domu i ma pięć głównych założeń:

  1. Należy chronić ludzi przed niebezpiecznymi lub nieefektywnymi systemami AI;
  2. Ludzie nie spotykać się z dyskryminacją ze strony algorytmów, a systemy powinny być wykorzystywane i projektowane w sposób sprawiedliwy.
  3. Systemy AI powinny być chronione przed nadużyciami w zakresie praktyk związanych z danymi za pomocą wbudowanych zabezpieczeń i powinny mieć kontrolę nad sposobem wykorzystania danych na ich temat.
  4. Ludzie wiedzieć, że używany jest zautomatyzowany system i rozumieć, w jaki sposób i dlaczego przyczynia się on do wyników, które na nich wpływają.
  5. Człowiek powinien mieć możliwość rezygnacji, w stosownych przypadkach, oraz mieć dostęp do osoby, która może szybko rozważyć napotkane problemy i im zaradzić.

https://www.linkedin.com/feed/update/urn:li:activity:7111228127829274624?

[Listopad 2023] NEW YORK TIMES na temat wysiłków rządu USA aby przeciąć związki twórców Sztucznej Inteligencji z Chinami. Amerykańskie agencje szpiegowskie ostrzegały w sprawie emirackiej firmy G42 i jej współpracy z dużymi chińskimi firmami, że urzędnicy amerykańscy uważają ją za zagrożenie dla bezpieczeństwa.

Kiedy w czerwcu tajny doradca Zjednoczonych Emiratów Arabskich ds. bezpieczeństwa narodowego, szejk Tahnoon bin Zayed, odwiedził Biały Dom, jego amerykański odpowiednik Jake Sullivan poruszył delikatną kwestię: G42, firma zajmująca się sztuczną inteligencją kontrolowana przez szejka, według amerykańskich urzędników ukrywa zakres swojej współpracy z Chinami.

https://www.nytimes.com/2023/11/27/us/politics/ai-us-uae-china-security-g42.html

Wybór cytatów opracował Robert Nogacki. W sporządzaniu komentarzy uczestniczył ChatGPT. Treści opracowane w dniu 8 grudnia 2023 r. Kto wie czy jutro również będą aktualne? AI zmienia się codziennie.