માર્ચના અંતમાં, 1,000 થી વધુ ટેક્નોલોજી નેતાઓ, સંશોધકો અને અન્ય પંડિતો આર્ટિફિશિયલ ઈન્ટેલિજન્સ અને તેની આસપાસ કામ કરે છે. હસ્તાક્ષર કર્યા એક ખુલ્લો પત્ર ચેતવણી આપે છે કે AI ટેક્નોલોજીઓ “સમાજ અને માનવતા માટે ગહન જોખમો” રજૂ કરે છે.
જૂથ, જેમાં ટેસ્લાના ચીફ એક્ઝિક્યુટિવ અને ટ્વિટરના માલિક એલોન મસ્કનો સમાવેશ થાય છે, એઆઈ લેબ્સને તેમની સૌથી શક્તિશાળી સિસ્ટમ્સના વિકાસને છ મહિના માટે અટકાવવા વિનંતી કરી જેથી તેઓ ટેક્નોલોજી પાછળના જોખમોને વધુ સારી રીતે સમજી શકે.
પત્રમાં કહેવામાં આવ્યું છે કે, “શક્તિશાળી AI સિસ્ટમ્સ માત્ર ત્યારે જ વિકસિત થવી જોઈએ જ્યારે અમને વિશ્વાસ હોય કે તેની અસરો સકારાત્મક હશે અને તેના જોખમોને નિયંત્રિત કરી શકાય છે.”
પત્ર, જેમાં હવે 27,000 થી વધુ સહીઓ છે, તે ટૂંકી હતી. તેની ભાષા વ્યાપક હતી. અને પત્ર પાછળના કેટલાક નામો AI શ્રી મસ્ક સાથે વિરોધાભાસી સંબંધ ધરાવતા હોય તેવું લાગતું હતું, ઉદાહરણ તરીકે, પોતાનું AI સ્ટાર્ટ-અપ બનાવી રહ્યા છે, અને તે પત્ર લખનાર સંસ્થાના પ્રાથમિક દાતાઓમાંના એક છે.
પરંતુ પત્ર એઆઈ નિષ્ણાતોમાં વધતી જતી ચિંતાનું પ્રતિનિધિત્વ કરે છે કે નવીનતમ સિસ્ટમો, ખાસ કરીને GPT-4, સાન ફ્રાન્સિસ્કો સ્ટાર્ટ-અપ OpenAI દ્વારા રજૂ કરવામાં આવેલી ટેક્નોલોજી, સમાજને નુકસાન પહોંચાડી શકે છે. તેઓ માનતા હતા કે ભવિષ્યની સિસ્ટમ વધુ ખતરનાક હશે.
કેટલાક જોખમો આવી ગયા છે. અન્ય મહિનાઓ કે વર્ષો સુધી નહીં. હજુ પણ અન્ય કેવળ અનુમાનિત છે.
યુનિવર્સિટી ઓફ મોન્ટ્રીયલના પ્રોફેસર અને AI સંશોધક યોશુઆ બેંગિયોએ જણાવ્યું હતું કે, “ખૂબ શક્તિશાળી AI સિસ્ટમમાં શું ખોટું થઈ શકે છે તે સમજવાની અમારી ક્ષમતા ખૂબ જ નબળી છે.” “તેથી આપણે ખૂબ કાળજી રાખવાની જરૂર છે.”
તેઓ શા માટે ચિંતિત છે?
ડૉ. બેન્જિયો કદાચ પત્ર પર સહી કરનાર સૌથી મહત્વપૂર્ણ વ્યક્તિ છે.
અન્ય બે શિક્ષણવિદો સાથે કામ કરવું – જ્યોફ્રી હિન્ટન, તાજેતરમાં સુધી Google માં સંશોધક, અને Yann LeCun, હવે મેટાના મુખ્ય AI વૈજ્ઞાનિક, Facebookના માલિક – ડૉ. બેન્જિયોએ છેલ્લા ચાર દાયકાઓ GPT-4 જેવી સિસ્ટમને ચલાવતી ટેકનોલોજી વિકસાવવામાં ગાળ્યા. . 2018 માં, સંશોધકોને ટ્યુરિંગ એવોર્ડ મળ્યોતેમના કામ માટે ઘણી વખત “કમ્પ્યુટિંગનું નોબેલ પુરસ્કાર” કહેવાય છે ન્યુરલ નેટવર્ક્સ.
ન્યુરલ નેટવર્ક એક ગાણિતિક સિસ્ટમ છે જે ડેટાનું વિશ્લેષણ કરીને કૌશલ્ય શીખે છે. લગભગ પાંચ વર્ષ પહેલાં, ગૂગલ, માઈક્રોસોફ્ટ અને ઓપનએઆઈ જેવી કંપનીઓએ ન્યુરલ નેટવર્ક બનાવવાનું શરૂ કર્યું હતું જે વિશાળ લેંગ્વેજ મોડલ અથવા એલએલએમ તરીકે ઓળખાતા ડિજિટલ ટેક્સ્ટમાંથી શીખ્યા હતા.
તે ટેક્સ્ટમાં પેટર્નને નિર્દેશિત કરીને, LLMs પોતાની જાતે ટેક્સ્ટ જનરેટ કરવાનું શીખે છે, જેમાં બ્લોગ પોસ્ટ્સ, કવિતાઓ અને કમ્પ્યુટર પ્રોગ્રામ્સનો સમાવેશ થાય છે. તેઓ વાતચીત પણ ચાલુ રાખી શકે છે.
આ ટેક્નોલોજી મદદ કરી શકે છે કમ્પ્યુટર પ્રોગ્રામરો, લેખકો અને અન્ય કામદારો વિચારો ઉત્પન્ન કરે છે અને વસ્તુઓ વધુ ઝડપથી કરે છે. પરંતુ ડૉ. બેન્જિયો અને અન્ય નિષ્ણાતોએ પણ ચેતવણી આપી હતી કે એલએલએમ અનિચ્છનીય અને અણધારી વર્તણૂકો શીખી શકે છે.
આ સિસ્ટમો પેદા કરી શકે છે અસત્ય, પૂર્વગ્રહયુક્ત અને અન્યથા ઝેરી માહિતી. GPT-4 જેવી સિસ્ટમમાં હકીકતો ખોટી હોય છે અને માહિતી બનાવે છે, જેને “ભ્રામકતા” કહેવાય છે.
કંપનીઓ આ સમસ્યાઓ પર કામ કરી રહી છે. પરંતુ ડૉ. બેન્જિયો જેવા નિષ્ણાતો ચિંતા કરે છે કે જેમ જેમ સંશોધકો આ સિસ્ટમોને વધુ શક્તિશાળી બનાવશે તેમ તેમ તેઓ નવા જોખમો રજૂ કરશે.
ટૂંકા ગાળાના જોખમ: અસ્પષ્ટ માહિતી
કારણ કે આ સિસ્ટમો સંપૂર્ણ આત્મવિશ્વાસ સાથે માહિતી પહોંચાડે છે, તેનો ઉપયોગ કરતી વખતે સત્યને કાલ્પનિકથી અલગ કરવા માટે સંઘર્ષ થઈ શકે છે. નિષ્ણાતો ચિંતિત છે કે લોકો તબીબી સલાહ માટે આ સિસ્ટમો પર આધાર રાખશે, ભાવનાત્મક ટેકો અને કાચી માહિતીનો તેઓ નિર્ણય લેવા માટે ઉપયોગ કરે છે.
એરિઝોના સ્ટેટ યુનિવર્સિટીના કોમ્પ્યુટર સાયન્સના પ્રોફેસર સુબ્બારાવ કંભમપતિએ જણાવ્યું હતું કે, “તમે તેમને જે પણ કાર્ય આપો છો તેના પર આ સિસ્ટમ્સ સાચી હશે તેની કોઈ ગેરેંટી નથી.”
નિષ્ણાતો એ પણ ચિંતિત છે કે લોકો આ સિસ્ટમનો દુરુપયોગ કરીને ખોટી માહિતી ફેલાવશે. કારણ કે તેઓ માનવીય રીતે વાતચીત કરી શકે છે, તેઓ આશ્ચર્યજનક રીતે સમજાવે છે.
“હવે અમારી પાસે એવી પ્રણાલીઓ છે જે કુદરતી ભાષા દ્વારા અમારી સાથે સંપર્ક કરી શકે છે, અને અમે નકલી અને વાસ્તવિકને અલગ કરી શકતા નથી,” ડૉ. બેન્જિયોએ કહ્યું.
મધ્યમ-ગાળાનું જોખમ: નોકરી ગુમાવવી
નિષ્ણાતો ચિંતિત છે કે નવું AI જોબ કિલર બની શકે છે. અત્યારે, GPT-4 જેવી ટેકનોલોજી માનવ કામદારોને પૂરક બનાવે છે. પરંતુ OpenAI સ્વીકારે છે કે તેઓ કેટલાક કામદારોને બદલી શકે છે, જેમાં એવા લોકોનો સમાવેશ થાય છે કે જેઓ ઇન્ટરનેટ પર સામગ્રીને મધ્યમ કરે છે.
તેઓ હજુ સુધી વકીલો, એકાઉન્ટન્ટ્સ અથવા ડોકટરોના કામની નકલ કરી શકતા નથી. પરંતુ તેઓ બદલી શકે છે પેરાલીગલ્સ, અંગત મદદનીશો અને અનુવાદકો.
OpenAI સંશોધકો દ્વારા લખાયેલ પેપર અંદાજ મુજબ 80 ટકા યુ.એસ. વર્ક ફોર્સના ઓછામાં ઓછા 10 ટકા તેમના કામના કાર્યોને LLM દ્વારા અસર થઈ શકે છે અને 19 ટકા કામદારો તેમના ઓછામાં ઓછા 50 ટકા કાર્યોને અસરગ્રસ્ત જોઈ શકે છે.
સિએટલની એક સંશોધન પ્રયોગશાળા એલેન ઇન્સ્ટિટ્યૂટ ફોર AIના સ્થાપક ચીફ એક્ઝિક્યુટિવ ઓરેન એટ્ઝિઓનીએ જણાવ્યું હતું કે, “ત્યાં એક સંકેત છે કે રોટે જોબ્સ જતી રહેશે.”
લાંબા ગાળાનું જોખમ: નિયંત્રણ ગુમાવવું
પત્ર પર હસ્તાક્ષર કરનારા કેટલાક લોકો એવું પણ માને છે કે આર્ટિફિશિયલ ઇન્ટેલિજન્સ આપણા નિયંત્રણની બહાર નીકળી શકે છે અથવા માનવતાનો નાશ કરી શકે છે. પરંતુ ઘણા નિષ્ણાતો કહે છે કે તે જંગલી રીતે ઓવરફ્લોન છે.
આ પત્ર ફ્યુચર ઑફ લાઇફ ઇન્સ્ટિટ્યુટના એક જૂથ દ્વારા લખવામાં આવ્યો હતો, જે માનવતા માટે અસ્તિત્વના જોખમોની શોધ કરવા માટે સમર્પિત સંસ્થા છે. તેઓ ચેતવણી આપે છે કારણ કે એઆઈ સિસ્ટમ્સ તેઓ વિશ્લેષણ કરે છે તે વિશાળ માત્રામાં ડેટામાંથી ઘણીવાર અનપેક્ષિત વર્તન શીખે છેતેઓ ગંભીર, અણધારી સમસ્યાઓ ઊભી કરી શકે છે.
તેઓ ચિંતા કરે છે કે જેમ જેમ કંપનીઓ LLM ને અન્ય ઇન્ટરનેટ સેવાઓમાં પ્લગ કરે છે, આ સિસ્ટમ્સ અણધારી શક્તિઓ મેળવી શકે છે કારણ કે તેઓ પોતાનો કમ્પ્યુટર કોડ લખી શકે છે. તેઓ કહે છે કે વિકાસકર્તાઓ નવા જોખમો સર્જશે જો તેઓ શક્તિશાળી AI સિસ્ટમને પોતાનો કોડ ચલાવવાની મંજૂરી આપે.
કેલિફોર્નિયા યુનિવર્સિટી, સાન્ટા ક્રુઝના સૈદ્ધાંતિક કોસ્મોલોજિસ્ટ અને ભૌતિકશાસ્ત્રી અને ફ્યુચર ઓફ ધ ફ્યુચરના સહ-સ્થાપક એન્થોની એગુઇરે જણાવ્યું હતું કે, “જો તમે હવેથી ત્રણ વર્ષ પછી આપણે ક્યાં છીએ તેના સીધા એક્સ્ટ્રાપોલેશન પર નજર નાખો, તો વસ્તુઓ ખૂબ જ વિચિત્ર છે.” જીવન સંસ્થા.
“જો તમે ઓછા સંભવિત દૃશ્યને લો છો – જ્યાં વસ્તુઓ ખરેખર ઉપડે છે, જ્યાં કોઈ વાસ્તવિક શાસન નથી, જ્યાં આ સિસ્ટમ્સ અમે વિચાર્યું હતું તેના કરતા વધુ શક્તિશાળી બને છે – તો વસ્તુઓ ખરેખર, ખરેખર ઉન્મત્ત બની જાય છે,” તેમણે કહ્યું.
ડૉ. એત્ઝિઓનીએ કહ્યું કે અસ્તિત્વના જોખમની વાત કાલ્પનિક હતી. પરંતુ તેણે કહ્યું કે અન્ય જોખમો – ખાસ કરીને અસ્પષ્ટ માહિતી – હવે અટકળો નથી.
“હવે અમારી પાસે કેટલીક વાસ્તવિક સમસ્યાઓ છે,” તેણે કહ્યું. “તેઓ સાચા છે. તેમને કેટલીક જવાબદાર પ્રતિક્રિયાની જરૂર છે. તેમને નિયમન અને કાયદાની જરૂર પડી શકે છે.”