Google zniósł zakaz wykorzystywania AI do celów militarnych

Google zniósł zakaz wykorzystywania AI do celów militarnych

Autor: Krzysztof Sulikowski

Opublikowano: 2/5/2025, 8:00 PM

Liczba odsłon: 477

Twórcy sztucznej inteligencji, tacy jak Microsoft, często wyrażają przekonanie, że powinna ona od samego początku służyć dobru ludzkości. Kwestią dyskusyjną jest, czy wykorzystanie AI przez wojsko spełnia to kryterium – zwłaszcza jeśli mowa o tzw. śmiercionośnych technologiach. Swoje jasne stanowisko w tej sprawie obrał też Google, który nie wyklucza już użycia jego technologii AI do celów militarnych.

Google wzbudził spore kontrowersje, zmieniając swoje wytyczne dot. jego sztucznej inteligencji, w tym znosząc zakaz jej wykorzystywania do celów militarnych, wliczając w to tworzenie broni i narzędzi inwigilacji, wliczając w to np. inteligentne drony. Organizacja Human Rights Watch wyraziła swoje zaniepokojenie, argumentując, że taka decyzja może "komplikować odpowiedzialność" za decyzje na polu bitwy, których konsekwencje to "sprawa życia i śmierci".

Alphabet (firma macierzysta Google) broni tej zmiany, twierdząc, że firmy i demokratyczne rządy muszą współpracować w kwestii AI, która "wspiera bezpieczeństwo narodowe". Anna Bacciarelli z Human Rights Watch uważa jednak, że rezygnacja z ustalonych wcześniej "czerwonych linii" jest niepokojąca, zwłaszcza w czasie, gdy potrzebne jest odpowiedzialne przywództwo w domenie AI. Alphabet pisze na blogu, że demokracje powinny prowadzić rozwój AI, kierując się "wartościami podstawowymi", takimi jak wolność, równość i poszanowanie praw człowieka. Uważają oni, że firmy, rządy i organizacje dzielące te wartości powinny współpracować, aby tworzyć AI, która chroni ludzi, promuje globalny rozwój i wspiera bezpieczeństwo narodowe.

Militarny potencjał sztucznej inteligencji budzi uzasadnione obawy. Systemy AI, zdolne do autonomicznego podejmowania decyzji o życiu lub śmierci, wymagają pilnej kontroli. AI znalazła już zastosowanie w celach wojskowych w Ukrainie i na Bliskim Wschodzie, a kilka krajów dąży do jej integracji w swoich siłach zbrojnych. Pozostaje pytanie o zakres, w jakim maszyny będą podejmować decyzje militarne, w tym mogące prowadzić do masowych zgonów.

Zanim jeszcze etyczna AI stała się tematem dyskursu publicznego, założyciele Google, Sergei Brin i Larry Page, przyjęli motto "Nie bądź zły" ("Don't be evil"). Kiedy firma została przekształcona w Alphabet Inc w 2015 r., zmieniono to na "Rób to, co właściwe" ("Do the right thing"). Kto jednak ma prawo ustalać, co jest właściwe? Od tego czasu pracownicy Google czasami sprzeciwiali się podejściu zarządu. W 2018 r. firma nie odnowiła kontraktu na prace nad AI dla Pentagonu, zapewne pod wpływem rezygnacji i petycji podpisanej przez tysiące pracowników, którzy obawiali się, że projekt Maven to pierwszy krok w kierunku wykorzystania AI do celów śmiercionośnych.

Źródło grafiki: Microsoft Designer

Źródło: https://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/

Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży
Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży

Wydarzenia