Tehisintellekt (TI) kiirendab uute valkude disainimist, mis võiksid olla ravimid, vaktsiinid ja muud teraapiad. Kuid selle lubadusega kaasnevad hirmud, et samu tööriistu võidakse kasutada bioloogiliste relvade või kahjulike toksiinide ehitusplokkide loomisel. Nüüd pakuvad teadlased välja rea kaitsemeetmeid, mida saaks tehisintellekti tööriistadesse sisse ehitada, et kas blokeerida pahatahtlikku kasutamist või võimaldada uudse biorelva jälgimist selle tehisintellekti loojani.
„Sellise raamistiku õige loomine on võtmetähtsusega ... selle tehnoloogia suure potentsiaali rakendamiseks, ennetades samal ajal väga tõsiste riskide teket,“ kirjutas epidemioloog ja Johns Hopkinsi ülikooli tervisejulgeoleku keskuse direktor Thomas Inglesby ajakirjale Science saadetud e-kirjas. Inglesby ei olnud täna ajakirjas Nature Biotechnology avaldatud uue artikli autor, kuid ta on varem jaganud muret tehisintellekti väärkasutamise pärast bioloogilistes keskkondades.
Viimastel aastatel on teadlased näidanud, et tehisintellekti mudelid suudavad mitte ainult ennustada valgu struktuure nende aminohappejärjestuse põhjal, vaid ka genereerida rekordajaga enneolematuid valgujärjestusi uudsete funktsioonidega. Hiljutised tehisintellekti mudelid, näiteks RFdiffusion ja ProGen, suudavad valke sekunditega kohandada. Vähesed seavad kahtluse alla nende potentsiaali baasteaduses ja meditsiinis. Kuid Mengdi Wang, Princetoni ülikooli arvutiteadlane ja uue artikli autor, märgib, et nende võimsus ja kasutusmugavus on murettekitavad. „Tehisintellekt on muutunud nii lihtsaks ja kättesaadavaks. Keegi ei pea omama doktorikraadi, et genereerida mürgist ühendit või viirusejärjestust,“ ütleb ta.
Kevin Esvelt, Massachusettsi Tehnoloogiainstituudi meedialabori arvutiteadlane, kes on USA Kongressi ees tunnistanud riskantsete viiruste ja DNA tootmise uuringute rangema kontrolli toetuseks, märgib, et mure on endiselt teoreetiline. „Puudub igasugune laboratoorsete tõendite kogum, mis näitaks, et mudelid on piisavalt head, et tegelikult lasta täna uue pandeemia tekitada,“ ütleb ta. Sellegipoolest allkirjastas 130 valguuurijast koosnev grupp, sealhulgas Ingelsby, eelmisel aastal lubaduse kasutada tehisintellekti oma töös ohutult. Nüüd lähevad Wang ja tema kolleegid vabatahtlikest meetmetest kaugemale, tuues välja meetmed, mida saaks tehisintellekti mudelitesse ise sisse ehitada.
Üks neist on kaitsepiire, mida tuntakse kui FoldMark ja mis töötati välja Wangi laboris. See laenab oma kontseptsiooni olemasolevatelt tööriistadelt, näiteks Google DeepMindi SynthID-lt, mis manustab digitaalseid mustreid tehisintellekti loodud sisusse ilma selle kvaliteeti muutmata. FoldMarki puhul sisestatakse valgu struktuuri kood, mis toimib unikaalse identifikaatorina, muutmata valgu funktsiooni. Kui avastatakse uudne toksiin, saaks koodi kasutada selle allika jälgimiseks. Selline sekkumine on „nii teostatav kui ka suure potentsiaalse väärtusega riskide vähendamisel“, ütleb Inglesby.
Wang ja tema kolleegid pakuvad välja ka viise tehisintellekti mudelite muutmiseks, et need tekitaksid vähem kahju. Valgu ennustusmudeleid treenitakse olemasolevate valkude, sealhulgas toksiinide ja patogeensete valkude põhjal ning lähenemisviis, mida nimetatakse "unlearninguks", eemaldaks osa sellest treeningust, muutes mudeli jaoks ohtlike uute valkude pakkumise raskemaks. Nende artikkel soovitab ka "antijailbreakingut", mis treenib süstemaatiliselt tehisintellekti mudeleid potentsiaalselt pahatahtlike käskude äratundmiseks ja tagasilükkamiseks. Ja see kutsub arendajaid üles võtma kasutusele väliseid kaitsemeetmeid, näiteks autonoomseid agente, mis suudavad jälgida tehisintellekti kasutamist ja hoiatada ohutusametnikku, kui keegi üritab toota ohtlikke bioloogilisi materjale.
Alvaro Velasquez, Kaitsealaste Täiustatud Uurimisprojektide Agentuuri tehisintellekti projekte juhtiv programmijuht ja artikli kaasautor, möönab, et nende kaitsemeetmete rakendamine ei ole lihtne. "Reguleeriva organi või mingil tasemel järelevalve olemasolu oleks lähtepunkt," ütleb Velasquez.
Stanfordi ülikooli arvutusbioloog James Zou arvab, et tehisintellekti mudelitelt endilt piirete lisamist nõudvatel asutustel võiksid regulaatorid keskenduda teenindusasutustele või organisatsioonidele, mis saavad tehisintellekti loodud valgudisaini muuta suuremahuliseks tootmiseks. „Minu arvates on mõistlik kehtestada rohkem kaitsepiirdeid ja eeskirju seal, kus tehisintellekt kohtub reaalse maailmaga,“ ütleb ta. Tootmisüksused võiksid küsida uute molekulide päritolu ja kavandatud kasutuse kohta. „Ja võib-olla isegi teha katseid, et näha, kas need molekulid on potentsiaalselt ohtlikud,“ lisab ta.
Kuid Zou nõustub, et uus keskendumine kaitsemeetmetele on tervislik. „Inimesed pole [tehisintellektile ja bioturvalisusele] nii palju mõelnud kui teistele valdkondadele, nagu valeinformatsioon või süvavõltsingu [tehnoloogia]. Mul on hea meel, et teadlased hakkavad sellele tähelepanu pöörama.“
Lisateave: https://www.science.org/content/article/built-safeguards-might-stop-ai-designing-bioweapons
