Az amerikai hadsereg megkezdi az erkölcsi, etikai robotok kutatását, hogy megakadályozza a Skynet-szerű apokalipszist

Terminator 2, Google

Az Egyesült Államok Védelmi Minisztériuma számos amerikai egyetem vezető informatikusával, filozófusával és robotikusával együttműködve végre megkezdte a projektet, amely az erkölcsi és etikai robotok trükkös témájával foglalkozik. Ez a multidiszciplináris projekt először megpróbálja pontosan meghatározni, hogy mi az emberi erkölcs, majd megpróbál olyan számítógépes algoritmusokat kidolgozni, amelyek az autonóm robotokat erkölcsi kompetenciával - a helyes és rossz közül való választás képességével - átitatják. Ahogy folyamatosan haladunk az autonóm robotok - öszvérek, lábkatonák, drónok - által lakott katonai erő felé, egyre fontosabb, hogy ezeknek a gépeknek - ezeknek a mesterséges intelligenciáknak - lehetőséget adjunk a helyes döntés meghozatalára. Igen, az amerikai DoD megpróbál kijutni a Skynet elé, mielőtt átvenné a világot. Milyen nagyon értelmes.

A projektet a Tufts, Brown és a Rensselaer Politechnikai Intézet (RPI) kutatói hajtják végre, a Tengerészeti Kutatási Hivatal (ONR) támogatásával. Az ONR a DARPA-hoz hasonlóan a Védelmi Minisztérium egyik szárnya, amely főként katonai kutatás-fejlesztéssel foglalkozik. Bár még nem tartunk azon a ponton, ahol a katonai robotok szeretik Nagy kutya el kell döntenie, melyik sérült katonát szállítja le a csatatéren, vagy az UAV-k emberi beavatkozás nélkül képesek Hellfire rakétákat lőni a terroristákra, nagyon könnyű elképzelni a jövőt, ahol autonóm robotok felelnek az ilyen erkölcsi és etikai döntések valós időben történő meghozataláért . Röviden, itt az ideje, hogy megvizsgáljuk a robotok (vagy pontosabban a mesterséges intelligencia) olyan áramkörökkel és szubrutinokkal történő infúziójának megvalósíthatóságát, amelyek képesek elemezni egy helyzetet és kiválasztani a megfelelő tennivalót - akárcsak egy ember. (Olvas:Gyerekkatonák és az amerikai hadsereg jövője.)

Atlas robot, elöl és hátul

A DARPA Atlas humanoid robotja. Hamarosan megkapja azt a lehetőséget, hogy a rossz és a rossz között válasszon.

Amint valószínűleg elképzelheti, ez hihetetlenül nehéz feladat. Tudományos szempontból még mindig nem tudjuk, mi az emberi erkölcs valójában - és így a digitális erkölcs létrehozása a szoftverekben lényegében lehetetlen. Először tehát a kutatás elméleti (filozófiai) és empirikus (kísérleti) kutatásokat használ az emberi erkölcs lényeges elemeinek elkülönítésére. Ezeket a megállapításokat ezután formális erkölcsi keretrendszerré extrapolálják, amelyet viszont szoftveresen (valószínűleg valamilyen mély neurális hálózatban) lehet megvalósítani.

Feltételezve, hogy ilyen messzire jutunk, és ki tudjuk dolgozni, hogy az emberek hogyan döntenek a rossz és a rossz között, akkor a kutatók egy fejlett robotot vesznek - valami hasonlót Atlasz vagy a BigDog - és erkölcsi kompetenciával átitatja szoftverét. A projektben részt vevő egyik kutató, Selmer Bringsjord az RPI-nél ezeket a robotokat kétlépcsős megközelítéssel képzeli el, hogy a rosszat a rosszból válasszák. Először az AI elvégezne egy „villámgyors etikai ellenőrzést” - olyan egyszerű dolgokat, mint például: „álljak le és segítsek ennek a sebesült katonának?” A helyzettől függően a robot eldönti, hogy mélyebb erkölcsi érvelés szükséges-e - például segít-e a robot a sebesült katonának, vagy folytatja-e elsődleges küldetését, hogy létfontosságú lőszert és készleteket juttasson el az első vonalba, ahol más katonák tartózkodnak. veszélyeztetett?

ED-209, a Robocop gyilkos robotja

ED-209, gyilkos robot innen: Robocop

Végül természetesen ennek a morális AI-keretrendszernek olyan trükkös témákkal is meg kell küzdenie, mint a gyilkosság. Rendben van, ha egy robot katona az ellenségre lő? Mi van, ha az ellenség gyermek? Fel kell-e robbantani egy autonóm UAV-nak egy rakás terroristát? Mi van, ha csak 90% -ban biztos, hogy terroristák, és 10% az esélye, hogy csak ártatlan falusiak? Mi lenne a emberi Az UAV pilóta ilyen esetben - és a robotoknak csak az emberek erkölcsi és etikai kompetenciáinak kell megfelelniük, vagy magasabb színvonalúak lesznek?

Ezen a ponton egészen biztosnak tűnik, hogy az Egyesült Államok DoD végül megsérti Asimov robotika három törvényét - amelyek közül az első: „A robot nem sértheti meg az embert, vagy tétlensége révén nem engedheti, hogy az ember káros legyen. ” Ez nem feltétlenül rossz dolog, de kinyitja Pandora dobozát. Egyrészt valószínűleg jó ötlet az emberkatonákat robotokkal helyettesíteni - másrészt, ha az Egyesült Államok egy teljesen robotikus hadsereget állíthat fel, a háború mint diplomáciai eszköz hirtelen sokkal ízletesebbé válik. Ennek az ONR projektnek a megkezdése azt jelenti, hogy nagyon hamar el kell döntenünk, hogy rendben van-e, ha egy robot elveszi az ember életét - és őszintén szólva, szerintem senkinek nincs válasza.

Copyright © Minden Jog Fenntartva | 2007es.com