Veszélyes a mesterséges intelligencia (AI)?


2023. május 22-én, hétfőn egy „Bloomberg Feed” nevű ellenőrzött Twitter-fiók megosztott egy tweetet, amelyben azt állította, hogy robbanás a Pentagonban volt, egy kép kíséretében. Ha kíváncsi, mi köze ennek a mesterséges intelligenciához (AI), a kép mesterséges intelligenciával készült, a tweet gyorsan terjed, és rövid tőzsdei zuhanást idézett elő. A dolgok sokkal rosszabbak is lehettek volna – ez határozottan emlékeztet a mesterséges intelligencia veszélyeire.

A mesterséges intelligencia veszélyei

Nem csak álhírek miatt kell aggódnunk. A mesterséges intelligencia számos azonnali vagy potenciális kockázattal jár, az adatvédelemmel és biztonsággal kapcsolatosaktól az elfogultságig és a szerzői jogi problémákig. Megvizsgáljuk ezeket a mesterséges intelligencia veszélyeit, megnézzük, mit tesznek ezek enyhítésére most és a jövőben, és megkérdezzük, hogy a mesterséges intelligencia kockázatai meghaladják-e az előnyöket.

Álhírek

Amikor a mélyhamisítások először landoltak, felmerült az aggodalom, hogy rossz szándékkal is felhasználhatják őket. Ugyanez mondható el a AI képgenerátorok új hullámáról, mint például a DALL-E 2, a Midjourney vagy a DreamStudio. 2023. március 28-án vírusos lett a hamis MI által generált képek Ferenc pápáról fehér Balenciaga pufferkabátban, és számos kalandot élvezett, beleértve a gördeszkázást és a pókerezést. Hacsak nem tanulmányozta alaposan a képeket, nehéz volt megkülönböztetni ezeket a képeket a valóditól.

Míg a pápával bemutatott példa kétségtelenül szórakoztató volt, a Pentagonról szóló kép (és a kísérő tweet) minden más volt, mint. A mesterséges intelligencia által generált hamis képek ronthatják a hírnevet, véget vethetnek a házasságoknak vagy karriereknek, politikai zavargásokat kelthetnek, sőt háborúkat is indíthatnak, ha nem megfelelő emberek használják őket – egyszóval, ezek a mesterséges intelligencia által generált képek rendkívül veszélyesek lehetnek, ha helytelenül használják őket.

A mesterséges intelligencia képgenerátorai mára bárki számára ingyenesen elérhetők, és A Photoshop mesterséges intelligencia-képgenerátort ad hozzá a népszerű szoftverének köszönhetően a képek manipulálására és álhírek létrehozására minden eddiginél nagyobb lehetőség nyílik.

Adatvédelem, biztonság és hackelés

Az adatvédelem és a biztonság szintén óriási aggodalomra ad okot a mesterséges intelligencia kockázataival kapcsolatban, mivel számos országban már betiltották az OpenAI ChatGPT-jét. Olaszország adatvédelmi aggályok miatt betiltotta a modellt, mivel úgy véli, hogy az nem felel meg az európai általános adatvédelmi rendeletnek (GDPR), míg Kína, Észak-Korea és Oroszország kormánya betiltotta, mert félt, hogy félretájékoztatja..

Tehát miért aggódunk annyira az adatvédelem miatt, amikor az AI-ról van szó? A AI alkalmazások és a rendszerek nagy mennyiségű adatot gyűjtenek össze, hogy tanuljanak és előrejelzéseket készítsenek. De hogyan tárolják és dolgozzák fel ezeket az adatokat? Fennáll az adatszivárgás, a hackelés és az információk rossz kezekbe kerülésének valós kockázata.

Nem csak a személyes adataink vannak veszélyben. Az AI hackelés valódi kockázatot jelent – ​​még nem fordult elő, de ha a rosszindulatú szándékkal rendelkezők behatolnak az AI-rendszerekbe, annak súlyos következményei lehetnek. A hackerek például irányíthatják a vezető nélküli járműveket, feltörhetik a mesterséges intelligencia biztonsági rendszereit, hogy bejuthassanak a rendkívül biztonságos helyekre, és akár fegyverrendszereket is feltörhetnek mesterséges intelligencia biztonsággal.

Az Egyesült Államok Védelmi Minisztériumának Védelmi Fejlett Kutatási Projektek Ügynökségének (DARPA) szakértői felismerték ezeket a kockázatokat, és már dolgoznak a DARPA Garantált mesterséges intelligencia megtévesztés elleni robusztusság (GARD) projektjén, amely az alapoktól kezdve kezeli a problémát. A projekt célja annak biztosítása, hogy az algoritmusokba és az AI-ba beépüljön a hackeléssel és manipulációval szembeni ellenállás.

Szerzői jogok megsértése

A mesterséges intelligencia másik veszélye a szerzői jogok megsértése. Lehet, hogy ez nem hangzik olyan komolyan, mint néhány más, általunk említett veszély, de az olyan mesterséges intelligencia modellek fejlesztése, mint a GPT-4, mindenkit megnövekedett a jogsértés kockázatának.

Valahányszor megkéri a ChatGPT-t, hogy hozzon létre valamit az Ön számára – legyen az utazási blogbejegyzés, vagy vállalkozása új neve –, Ön információkat szolgáltat neki, amelyeket a későbbi kérdések megválaszolására használ fel. Az Ön által visszaküldött információk sérthetik valaki más szerzői jogait, ezért olyan fontos, hogy a közzététel előtt használjon plágiumérzékelőt, és szerkessze az AI által létrehozott tartalmat.

Társadalmi és adatelfogultság

Az AI nem ember, tehát nem lehet elfogult, igaz? Rossz. Embereket és adatokat használnak a mesterséges intelligencia modellek és az chatbotok betanításához, ami azt jelenti, hogy az elfogult adatok vagy személyiségek elfogult AI-t eredményeznek. Az AI-ban kétféle torzítás létezik: a társadalmi elfogultság és az adatok torzítása.

Mivel a mindennapi társadalomban sok elfogultság jelen van, mi történik, ha ezek az elfogultságok a mesterséges intelligencia részévé válnak? A modell betanításáért felelős programozók elfogult elvárásaik lehetnek, amelyek aztán bejutnak az AI-rendszerekbe..

Vagy a mesterséges intelligencia betanításához és fejlesztéséhez használt adatok helytelenek, elfogultak vagy rosszhiszeműek lehetnek. Ez adatelfogultsághoz vezet, amely ugyanolyan veszélyes lehet, mint a társadalmi elfogultság. Például, ha egy arcfelismerő rendszert főként fehér emberek arcának felhasználásával képeznek ki, nehézséget okozhat a kisebbségi csoportokhoz tartozók felismerése, ami állandósítja az elnyomást.

Robotok veszik át munkánkat

A chatbotok, például a ChatGPT és a Google Bard fejlesztése teljesen új aggodalomra adott okot a mesterséges intelligencia körül: fennáll annak a veszélye, hogy a robotok elveszi a munkánkat. Már most azt látjuk, hogy a technológiai iparban írókat felváltja a mesterséges intelligencia, a szoftverfejlesztők attól tartanak, hogy a robotok miatt elveszítik az állásukat, és a ChatGPT-t használó cégek blog- és közösségi médiatartalmak létrehozására emberi írók alkalmazása helyett.

A A Világgazdasági Fórum A foglalkoztatás jövőjéről szóló 2020-as jelentése szerint a mesterséges intelligencia 2025-re várhatóan 85 millió munkahelyet vált majd fel világszerte. Ha az AI nem is váltja fel az írókat, sokan már most is eszközként használják. Azoknak, akiknek fennáll a veszélye, hogy a mesterséges intelligencia helyettesíti őket, alkalmazkodniuk kell a túléléshez – például az írók mesterséges intelligencia-mérnökökké válhatnak, lehetővé téve számukra, hogy olyan eszközökkel dolgozzanak, mint a ChatGPT a tartalomkészítéshez, ahelyett, hogy ezeket a modelleket helyettesítenék.

A jövő lehetséges AI-kockázatai

Ezek mind azonnali vagy fenyegető kockázatok, de mi a helyzet a mesterséges intelligencia kevésbé valószínű, de még mindig lehetséges veszélyeivel, amelyeket a jövőben láthatunk? Ide tartoznak például olyan dolgok, mint a mesterséges intelligencia arra programozása, hogy kárt okozzon az embereknek, például az autonóm fegyverek, amelyeket háború alatti ölésre képeztek ki.

Ekkor fennáll annak a veszélye, hogy a mesterséges intelligencia határozottan a programozott céljára összpontosíthat, és destruktív viselkedést alakíthat ki, miközben megpróbálja mindenáron elérni ezt a célt, még akkor is, ha az emberek megpróbálják megakadályozni, hogy ez megtörténjen.

A Skynet megtanította nekünk, mi történik, ha egy mesterséges intelligencia érzővé válik. Bár a Google mérnöke, Blake Lemoine 2022 júniusában megpróbált mindenkit meggyőzni arról, hogy A LaMDA, a Google mesterségesen intelligens chatbot-generátora érző volt, szerencsére a mai napig nincs bizonyíték arra, hogy ez igaz.

A mesterséges intelligencia szabályozásának kihívásai

Hétfőn, 202. május 15-én, Sam Altman, az OpenAI vezérigazgatója részt vett a mesterséges intelligenciáról szóló első kongresszusi meghallgatáson figyelmeztetés: „Ha ez a technológia elromlik, az egészen elromolhat.” Az OpenAI CO egyértelművé tette, hogy támogatja a szabályozást, és számos saját ötletét bemutatta a meghallgatásnak. A probléma az, hogy a mesterséges intelligencia olyan sebességgel fejlődik, hogy nehéz tudni, hol kezdjem a szabályozást..

A kongresszus el akarja kerülni ugyanazokat a hibákat, mint a közösségi média korszaka elején, és Chuck Schumer, a szenátus többségi vezetője mellett egy szakértői csapat már dolgozik olyan szabályozáson, amely előírná a vállalatoknak, hogy felfedjék, milyen adatforrásokat használtak a képzéshez. modellek és ki képezte ki őket. Eltarthat azonban egy ideig, mire világossá válik, hogy pontosan hogyan is szabályozzák a mesterséges intelligenciát, és kétségtelenül az AI-cégek visszahatása lesz.

A mesterséges általános intelligencia veszélye

Fennáll a mesterséges általános intelligencia (AGI) létrehozásának kockázata is, amely képes elvégezni minden olyan feladatot, amelyet egy ember (vagy állat) elvégezhet. A sci-fi filmekben gyakran emlegetnek, valószínűleg még évtizedekre vagyunk távol egy ilyen alkotástól, de ha és amikor mégis létrehozunk egy AGI-t, az veszélyt jelenthet az emberiségre.

Sok közéleti személyiség már támogatja azt a hiedelmet, hogy a mesterséges intelligencia egzisztenciális veszélyt jelent az emberekre, köztük Stephen Hawking, Bill Gates és még a Google korábbi vezérigazgatója, Eric Schmidt is, aki kijelentette: „A mesterséges intelligencia egzisztenciális kockázatokat jelenthet, és a kormányoknak tudniuk kell, hogyan hogy a technológiát ne használják vissza gonosz emberek.”

Tehát veszélyes-e a mesterséges intelligencia, és a kockázata meghaladja az előnyeit? A zsűri még mindig nem foglalkozik ezzel, de már most is látunk bizonyítékot a minket körülvevő kockázatokra. Más veszélyek kevésbé valószínű, hogy egyhamar beteljesülnek, ha egyáltalán megvalósulnak. Egy dolog azonban világos: az AI veszélyeit nem szabad alábecsülni. Rendkívül fontos, hogy a kezdetektől fogva biztosítsuk a mesterséges intelligencia megfelelő szabályozását, hogy minimalizáljuk és remélhetőleg mérsékeljük a jövőbeni kockázatokat.

.

Kapcsolódó hozzászólások:


31.05.2023