Pinahusay ng Microsoft ang AI Chatbot Security upang Pigilan ang mga Manloloko

Nagdagdag ang Microsoft Corp ng ilang feature ng seguridad sa Azure AI Studio na dapat, sa paglipas ng panahon, ay patuloy na bawasan ang posibilidad na i-configure ng mga user nito ang mga modelo ng AI sa isang mode na magpapakilos sa kanila nang abnormal o hindi naaangkop. Ang kumpanya ng multinational na teknolohiya na nakabase sa Redmond, Washington, binalangkas ang mga pagpapabuti sa isang post sa blog, na binibigyang-diin ang paggarantiya sa integridad ng mga pakikipag-ugnayan ng AI at pagpapatibay ng tiwala sa base ng gumagamit.

Prompt shields at higit pa 

Kabilang sa mga pangunahing pag-unlad ay ang paglikha ng "prompt shields," isang teknolohiya na idinisenyo upang mahanap at patayin ang mga agarang iniksyon habang nakikipag-usap sa AI chatbots. Ito ang mga tinatawag na jailbreak at karaniwang mga input mula sa mga user na sinadyang bumuo sa paraang nakakakuha sila ng hindi gustong tugon mula sa mga modelo ng AI.

Halimbawa, hindi direktang gumaganap ang Microsoft ng papel nito sa mga agarang iniksyon, kung saan posible ang pagpapatupad ng mga masasamang utos, at ang sitwasyong tulad nito ay maaaring humantong sa malubhang kahihinatnan sa seguridad tulad ng pagnanakaw ng data at pag-hijack ng system. Ang mga mekanismo ay susi sa pag-detect at pagtugon sa mga one-of-a-kind na banta sa real time, ayon kay Sarah Bird, Chief Product Officer ng Microsoft para sa Responsible AI.

Idinagdag ng Microsoft na malapit nang magkaroon ng mga alerto sa screen ng user, na magtuturo kapag ang isang modelo ay malamang na nagpapahayag ng mali o mapanlinlang na impormasyon, na tinitiyak ang higit na pagiging kabaitan at pagtitiwala sa gumagamit.

Bumuo ng Tiwala sa AI Tools 

Ang pagsisikap ng Microsoft ay bahagi ng isang mas malaking inisyatiba, na naglalayong bigyan ang mga tao ng kumpiyansa sa lalong sikat na generative AI na malawakang inilalapat sa mga serbisyong nagta-target sa mga indibidwal na consumer at corporate clientele. Ang Microsoft ay dumaan sa isang fine-tooth comb, pagkatapos na magkaroon ng mga pagkakataon, kung saan ang mga user ay may kakayahan na laro ang Copilot chatbot sa paggawa ng kakaiba o nakakapinsalang mga output. Ito ay bilang suporta sa isang resulta na nagpapakita ng pangangailangan para sa malakas na depensa laban sa mga nabanggit na manipulative na taktika, na malamang na tumaas kasama ng mga teknolohiya ng AI at tanyag na kaalaman. Ang paghula at pagkatapos ay pagpapagaan ay bilang pagkilala sa mga pattern ng pag-atake, tulad ng kung saan umuulit ang isang umaatake sa pagtatanong o pag-uudyok sa paglalaro ng papel.

Bilang pinakamalaking mamumuhunan at madiskarteng partner ng OpenAI, itinutulak ng Microsoft ang mga hangganan kung paano isama at lumikha ng responsable, ligtas na mga teknolohiyang AI. Parehong nakatuon sa responsableng pag-deploy at mga foundational na modelo ng Generative AI para sa mga hakbang sa kaligtasan. Ngunit inamin ni Bird na ang malalaking modelo ng wika na ito, kahit na ang mga ito ay makikita bilang isang pundasyon para sa karamihan sa hinaharap na pagbabago ng AI, ay hindi patunay sa pagmamanipula.

Ang pagbuo sa mga pundasyong ito ay aabutin ng higit pa kaysa sa pag-asa lamang sa mga modelo mismo; mangangailangan ito ng komprehensibong diskarte sa kaligtasan at seguridad ng AI.

Kamakailan ay inanunsyo ng Microsoft ang pagpapalakas ng mga hakbang sa seguridad para sa Azure AI Studio nito upang ipakita at garantiyahan ang mga proactive na hakbang na ginagawa para pangalagaan ang nagbabagong tanawin ng mga banta ng AI.

Nagsusumikap itong maiwasan ang mga maling paggamit ng AI at mapanatili ang integridad at pagiging maaasahan ng pakikipag-ugnayan ng AI sa pamamagitan ng pagsasama ng mga napapanahong screen at alerto.

Sa patuloy na ebolusyon ng teknolohiya ng AI at pag-aampon nito sa maraming pagsasama ng pang-araw-araw na buhay, ito ay magiging mataas na oras para sa Microsoft at sa iba pang komunidad ng AI na mapanatili ang isang napaka-maingat na paninindigan sa seguridad.

Pinagmulan: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/