Az egyik legelismertebb mesterségesintelligencia-kutató arra figyelmeztet, hogy nemcsak maga a technológia jelenthet veszélyt, hanem azok is, akik irányítják.
A CNBC-nek adott interjújában Yoshua Bengio, a Montreali Egyetem Tanulási Algoritmusok Intézetének vezetője – akit Yann LeCunnal és Geoffrey Hintonnal együtt az „MI keresztapjai” között tartanak számon – elmondta, hogy bizonyos elit technológiai körök az emberek gépekkel való helyettesítését szorgalmazzák.
Bengio a „Right to Warn” (Jog a figyelmeztetéshez) nyílt levél aláírói között is szerepel, amelyet az OpenAI vezető kutatói fogalmaztak meg. A levél szerint a szakembereket egyre inkább elhallgattatják az MI veszélyeiről szóló figyelmeztetéseik miatt.
„A mesterséges intelligencia hatalmat ad. De ki fogja irányítani ezt a hatalmat?”
– tette fel a kérdést Bengio a One Young World csúcstalálkozón Montrealban.
„Vannak, akik visszaélhetnek ezzel a hatalommal, és olyanok is, akik boldogan látnák, ha az emberiséget gépek váltanák fel”
– jelentette ki, valamint hozzátette:
„Igaz, ez csak egy szűk réteg, de ezek az emberek óriási befolyással bírhatnak, és képesek lehetnek rá, ha most nem állítunk fel megfelelő korlátokat.”
Bengio arra is rámutatott, hogy az MI-rendszerek fejlesztése milliárdokba kerül, amely tovább koncentrálja a hatalmat.
„Nagyon kevés szervezet és ország lesz képes erre”
– mondta.
„Ez hatalmi koncentrációhoz vezethet: gazdasági hatalomhoz, amely rossz lehet a piacnak; politikai hatalomhoz, amely veszélyeztetheti a demokráciát; és katonai hatalomhoz, amely bolygónk geopolitikai stabilitását fenyegetheti”
– figyelmeztetett.
Jelenleg a szakértők között nincs egyetértés, hogy az emberi képességekkel vetélkedő általános mesterséges intelligencia (AGI) elérhető-e már, illetve mikorra várható a megjelenése. Bengio azonban arra hívta fel a figyelmet, hogy ha ez még a globális szabályozások előtt megvalósul, komoly problémákra számíthatunk.
„Ha ez öt éven belül megtörténik, nem leszünk rá felkészülve”
– hangsúlyozta.
„Nem állnak rendelkezésünkre olyan módszerek, amelyekkel biztosíthatjuk: ezek a rendszerek nem okoznak kárt az embereknek, vagy nem fordulnak ellenük.”
(Futurism)