Narito kung paano pinaplano ng OpenAI na linisin ang ChatGPT mula sa maling impormasyon

Inanunsyo ng OpenAI noong Mayo 31, ang mga pagsisikap nitong pahusayin ang mga kakayahan sa paglutas ng problema sa matematika ng ChatGPT, na naglalayong bawasan ang mga pagkakataon ng mga guni-guni ng artificial intelligence (AI). Binibigyang-diin ng OpenAI ang pagpapagaan ng mga guni-guni bilang isang mahalagang hakbang patungo sa pagbuo ng nakahanay na AGI.

Noong Marso, ang pagpapakilala ng pinakabagong bersyon ng ChatGPT, GPT-4, ay higit na nagtulak sa artificial intelligence sa mainstream. Gayunpaman, ang mga generative AI chatbots ay matagal nang nakikipagbuno sa makatotohanang katumpakan, paminsan-minsan ay bumubuo ng maling impormasyon, na karaniwang tinutukoy bilang "mga guni-guni." Ang mga pagsisikap na bawasan ang AI hallucinations na ito ay inihayag sa pamamagitan ng isang post sa kanilang website.

Ang mga guni-guni ng AI ay tumutukoy sa mga pagkakataon kung saan ang mga artificial intelligence system ay bumubuo ng mga output na aktwal na hindi tama, nakakapanlinlang o hindi sinusuportahan ng real-world na data. Ang mga guni-guni na ito ay maaaring magpakita sa iba't ibang anyo, tulad ng pagbuo ng maling impormasyon, paggawa ng mga hindi umiiral na kaganapan o tao o pagbibigay ng mga hindi tumpak na detalye tungkol sa ilang partikular na paksa.

Ang OpenAI ay nagsagawa ng pananaliksik upang suriin ang pagiging epektibo ng dalawang uri ng feedback– “outcome supervision” at “process supervision.” Ang pangangasiwa sa resulta ay nagsasangkot ng feedback batay sa huling resulta, habang ang pangangasiwa sa proseso ay nagbibigay ng input para sa bawat hakbang sa isang chain of thought. Sinuri ng OpenAI ang mga modelong ito gamit ang mga problema sa matematika, pagbuo ng maraming solusyon at pagpili ng pinakamataas na ranggo na solusyon ayon sa bawat modelo ng feedback.

Pagkatapos ng masusing pagsusuri, natuklasan ng pangkat ng pananaliksik na ang pangangasiwa sa proseso ay nagbunga ng isang mahusay na pagganap dahil hinikayat nito ang modelo na sumunod sa isang proseso na inaprubahan ng tao. Sa kabaligtaran, ang pangangasiwa sa kinalabasan ay napatunayang mas mahirap na patuloy na suriin.

Kinilala ng OpenAI na ang mga implikasyon ng pangangasiwa sa proseso ay lumalampas sa matematika, at ang karagdagang pagsisiyasat ay kinakailangan upang maunawaan ang mga epekto nito sa iba't ibang mga domain. Ipinahayag nito ang posibilidad na kung ang mga naobserbahang resulta ay totoo sa mas malawak na konteksto, ang pagsubaybay sa proseso ay maaaring mag-alok ng isang paborableng kumbinasyon ng pagganap at pagkakahanay kumpara sa pangangasiwa ng kinalabasan. Upang mapadali ang pagsasaliksik, inilabas ng kumpanya sa publiko ang kumpletong dataset ng pangangasiwa sa proseso, na nag-aanyaya sa paggalugad at pag-aaral sa lugar na ito.

Nauugnay: Ang pangangailangan ng AI ay panandaliang nag-catapult sa Nvidia sa $1T club

Bagama't hindi nagbigay ang OpenAI ng mga tahasang pagkakataon na nag-udyok sa kanilang pagsisiyasat sa mga guni-guni, dalawang kamakailang mga pangyayari ang nagpakita ng problema sa mga sitwasyon sa totoong buhay.

Sa isang kamakailang insidente, ang abogadong si Steven A. Schwartz sa kaso ng Mata v. Avianca Airlines ay kinikilala ang pag-asa sa chatbot bilang isang mapagkukunan ng pananaliksik. Gayunpaman, ang impormasyong ibinigay ng ChatGPT ay lumabas na ganap na gawa-gawa, na itinatampok ang isyu sa kamay.

Ang ChatGPT ng OpenAI ay hindi ang tanging halimbawa ng mga artificial intelligence system na nakakaranas ng mga guni-guni. Ang AI ng Microsoft, sa panahon ng isang pagpapakita ng teknolohiyang chatbot nito noong Marso, ay sinuri ang mga ulat ng kita at nakabuo ng mga hindi tumpak na numero para sa mga kumpanya tulad ng Gap at Lululemon.

Magazine: 25K na mangangalakal ang tumaya sa mga stock pick ng ChatGPT, ang AI ay sumisipsip sa dice throws, at higit pa

Pinagmulan: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information