Mae Microsoft yn Gwella Diogelwch AI Chatbot i Atal Tricksters

Mae Microsoft Corp wedi ychwanegu nifer o nodweddion diogelwch yn Stiwdio Azure AI a ddylai, dros amser, barhau i leihau'r tebygolrwydd y bydd ei ddefnyddwyr yn ffurfweddu modelau AI i fodd a fyddai'n eu gorfodi i weithredu'n annormal neu'n amhriodol. Amlinellodd Washington y gwelliannau mewn post blog, gan bwysleisio gwarantu cywirdeb rhyngweithiadau AI a meithrin ymddiriedaeth yn y sylfaen defnyddwyr.

Tariannau prydlon a mwy 

Ymhlith y datblygiadau mawr mae creu “tariannau prydlon,” technoleg sydd wedi'i chynllunio i ddod o hyd i chwistrelliadau prydlon a'u lladd wrth sgwrsio â chatbots AI. Dyma'r jailbreaks fel y'u gelwir ac maent yn y bôn yn fewnbynnau gan ddefnyddwyr sy'n fwriadol i'w ffurfio yn y fath fodd fel eu bod yn ennyn ymateb digroeso gan y modelau AI.

Er enghraifft, mae Microsoft yn chwarae ei ran yn anuniongyrchol gyda chwistrelliadau prydlon, lle mae'n bosibl gweithredu gorchmynion drwg, a gallai senario o'r fath arwain at ganlyniadau diogelwch difrifol fel dwyn data a herwgipio system. Mae'r mecanweithiau'n allweddol i ganfod ac ymateb i'r bygythiadau un-o-fath hyn mewn amser real, yn ôl Sarah Bird, Prif Swyddog Cynnyrch Microsoft ar gyfer AI Cyfrifol.

Mae Microsoft yn ychwanegu y bydd rhybuddion ar sgrin y defnyddiwr yn fuan, a fydd yn nodi pan fydd model yn debygol o fod yn mynegi gwybodaeth ffug neu gamarweiniol, gan sicrhau mwy o gyfeillgarwch ac ymddiriedaeth i ddefnyddwyr.

Adeiladu Ymddiriedolaeth mewn Offer AI 

Mae ymdrech Microsoft yn rhan o fenter fwy, sydd i fod i roi hyder i bobl yn yr AI cynhyrchiol cynyddol boblogaidd sy'n cael ei gymhwyso'n helaeth mewn gwasanaethau sy'n targedu defnyddwyr unigol a chwsmeriaid corfforaethol. Aeth Microsoft drwodd â chrib dant mân, ar ôl cael yr achosion, lle roedd defnyddwyr yn gallu chwarae'r chatbot Copilot i gynhyrchu allbynnau rhyfedd neu niweidiol. Bydd hyn yn cefnogi canlyniad sy'n dangos yr angen am amddiffynfeydd cryf yn erbyn y tactegau llawdriniol a grybwyllwyd, sy'n debygol o godi gyda thechnolegau AI a gwybodaeth boblogaidd. Mae rhagweld ac yna lliniaru yn gydnabyddiaeth o batrymau ymosod, fel pan fydd ymosodwr yn ailadrodd cwestiynu neu'n annog chwarae rôl.

Fel buddsoddwr a phartner strategol mwyaf OpenAI, mae Microsoft yn gwthio ffiniau sut i ymgorffori a chreu technolegau AI cynhyrchiol, cyfrifol a diogel. Mae'r ddau wedi ymrwymo i ddefnyddio'n gyfrifol a modelau sylfaenol AI Generative ar gyfer mesurau diogelwch. Ond cyfaddefodd Bird nad yw'r modelau iaith mawr hyn, hyd yn oed wrth iddynt ddod i gael eu gweld fel sylfaen ar gyfer llawer o'r arloesi AI yn y dyfodol, yn gallu cael eu trin.

Bydd angen llawer mwy i adeiladu ar y sylfeini hyn na dibynnu ar y modelau eu hunain yn unig; byddai angen ymagwedd gynhwysfawr at ddiogelwch a diogeledd AI.

Yn ddiweddar, cyhoeddodd Microsoft y bydd mesurau diogelwch yn cryfhau ar gyfer ei Stiwdio Azure AI i ddangos a gwarantu camau rhagweithiol sy'n cael eu cymryd i ddiogelu tirwedd bygythiadau AI newidiol.

Mae'n ymdrechu i osgoi camddefnydd o AI a chadw cyfanrwydd a dibynadwyedd rhyngweithio AI trwy ymgorffori sgriniau a rhybuddion amserol.

Gydag esblygiad cyson technoleg AI a'i fabwysiadu mewn llawer o gynhwysiadau o fywyd bob dydd, bydd yn hen bryd i Microsoft a gweddill y gymuned AI gynnal safiad diogelwch gwyliadwrus iawn.

Ffynhonnell: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/