A ChatGPT mesterséges intelligencia fejlesztője, az OpenAI terveket készített a technológia által előidézhető legrosszabb forgatókönyvek megelőzésére. Hát, ha ezek közül csak kevés is megvalósul… Mindenesetre érdemes elolvasni.
A ChatGPT mögött álló vállalat egy 27 oldalas „Felkészültségi keretrendszer” című dokumentumot mutatott be, amely felvázolja miként követik nyomon, értékelik a csúcstechnológiás AI-modellekből eredő lehetséges „katasztrofális kockázatokat”- írja a CNN.
Ezek a kockázatok lehetnek akár tömeges kiberbiztonsági zavarok okozására használt AI-modellek, vagy mesterséges intelligencia segítésével létrehozott biológiai, vegyi vagy nukleáris fegyverek.
Az új felkészültségi keretrendszer szerinti az OpenAI vezetése rendelkezik döntéshozatali jogkörrel az új AI-modellek kiadásával kapcsolatban, de az igazgatótanácsnak van végső szava és „joga van az OpenAI vezetősége által hozott döntések visszavonására„. Vagyis az igazgatóság megvétózhatja a menedzsment döntését egy-egy fejlesztés tekintetében, amelyet veszélyesnek tart.
Az OpenAI-nál a fejlett AI-modellekből eredő potenciális kockázatok nyomon követését és mérséklését egy külön erre a célra létrehozott csapat fogja végezni. Az MIT professzora, Aleksander Madry jelenleg szabadságon van, hogy a startup felkészültségi csapatának élére álljon. Egy olyan kutatócsoportot fog felügyelni, amelynek feladata a potenciális kockázatok értékelése és szoros nyomon követése, valamint a különböző kockázatok összefoglalása. A kockázatokat „alacsony”, „közepes”, „magas” vagy „kritikus” kategóriákba sorolják majd.
A felkészültségi keretrendszer kimondja, hogy „csak a „közepes” vagy annál alacsonyabb „mérséklés utáni pontszámmal rendelkező modelleket lehet alkalmazni”, és csak a „magas” vagy annál alacsonyabb „mérséklés utáni pontszámmal rendelkező modelleket lehet továbbfejleszteni”.
A keretrendszer ismét ráirányítja a figyelmet a startup szokatlan irányítási struktúrájára, ami azt eredményezte, hogy Sam Altman vezérigazgatót leváltották, majd öt nap múlva visszahelyezték a cég élére.
Az OpenAI által felvázolt legújabb biztonsági ellenőrzéseket a cég azután vezette be, hogy egy nagyon komoly konferencia zajlott a mesterséges intelligencia veszélyével kapcsolatban.
Több száz vezető AI-tudós és kutató – köztük az OpenAI-s Altman és a Google Deepmind vezérigazgatója, Demis Hassabis – írt alá egy egymondatos nyílt levelet, amelyben azt írták, hogy az „AI által okozott kihalás kockázatának mérséklése globális prioritás kell, hogy legyen, a világjárványok és az atomháború okozta kockázatok mellett”.
A nyilatkozat széles körű riadalmat váltott ki a nyilvánosságból, bár néhány iparági megfigyelő később azzal vádolta a vállalatokat, hogy távoli apokalipszis-forgatókönyvekkel próbálják elterelni a figyelmet az AI-eszközökkel kapcsolatos jelenlegi ártalmakról.