જ્યોફ્રી હિન્ટન કૃત્રિમ બુદ્ધિમત્તાના પ્રણેતા હતા. 2012 માં, ડો. હિન્ટન અને તેના બે સ્નાતક વિદ્યાર્થીઓ યુનિવર્સિટી ઓફ ટોરોન્ટોમાં ટેકનોલોજી બનાવી જે AI સિસ્ટમ્સ માટે બૌદ્ધિક પાયો બની ગયો છે જેને ટેક ઉદ્યોગની સૌથી મોટી કંપનીઓ તેમના ભવિષ્યની ચાવી માને છે.
સોમવારે, જોકે, તેઓ સત્તાવાર રીતે ટીકાકારોના વધતા સમૂહમાં જોડાયા હતા જેઓ કહે છે કે તે કંપનીઓ જનરેટિવ આર્ટિફિશિયલ ઇન્ટેલિજન્સ, ટેક્નોલોજી કે જે ChatGPT જેવા લોકપ્રિય ચેટબોટ્સને શક્તિ આપે છે તેના આધારે ઉત્પાદનો બનાવવા માટે તેમની આક્રમક ઝુંબેશ સાથે જોખમ તરફ દોડી રહી છે.
ડૉ. હિન્ટને કહ્યું કે તેણે Google પરની નોકરી છોડી દીધી છે, જ્યાં તેણે એક દાયકા કરતાં વધુ સમય સુધી કામ કર્યું છે અને તે આ ક્ષેત્રમાં સૌથી પ્રતિષ્ઠિત અવાજોમાંથી એક બની ગયો છે, તેથી તે મુક્તપણે AI ના જોખમો વિશે વાત કરી શકે છે, તે તેનો એક ભાગ છે. કહ્યું, હવે તેના જીવનના કામ પર પસ્તાવો થાય છે.
“હું સામાન્ય બહાનું સાથે મારી જાતને સાંત્વના આપું છું: જો મેં તે ન કર્યું હોત, તો બીજા કોઈએ કર્યું હોત,” ડો. હિન્ટને ગયા અઠવાડિયે ટોરોન્ટોમાં તેના ઘરના ડાઇનિંગ રૂમમાં એક લાંબી મુલાકાત દરમિયાન કહ્યું, જ્યાંથી તે અને તેમના વિદ્યાર્થીઓએ તેમની પ્રગતિ કરી.
ડૉ. હિન્ટનની એઆઈ ગ્રાઉન્ડબ્રેકરથી ડૂમસેયર સુધીની સફર ટેક્નૉલૉજી ઉદ્યોગ માટે કદાચ દાયકાઓમાં સૌથી મહત્ત્વપૂર્ણ પરિવર્તન બિંદુ પર એક નોંધપાત્ર ક્ષણ છે. ઇન્ડસ્ટ્રી લીડર્સ માને છે કે નવી AI સિસ્ટમ્સ 1990 ના દાયકાની શરૂઆતમાં વેબ બ્રાઉઝરની રજૂઆત જેટલી મહત્વપૂર્ણ હોઈ શકે છે અને દવા સંશોધનથી લઈને શિક્ષણ સુધીના ક્ષેત્રોમાં સફળતા તરફ દોરી શકે છે.
પરંતુ ઉદ્યોગના ઘણા આંતરિક લોકો પર ડર લાગે છે કે તેઓ જંગલમાં કંઈક ખતરનાક છોડે છે. જનરેટિવ AI પહેલેથી જ ખોટી માહિતી માટેનું સાધન બની શકે છે. ટૂંક સમયમાં, તે નોકરીઓ માટે જોખમ બની શકે છે. ક્યાંક નીચે, ટેકની સૌથી મોટી ચિંતા કરનારાઓ કહે છે, તે માનવતા માટે જોખમ બની શકે છે.
“તે જોવું મુશ્કેલ છે કે તમે ખરાબ કલાકારોને ખરાબ વસ્તુઓ માટે તેનો ઉપયોગ કરતા કેવી રીતે રોકી શકો,” ડૉ. હિન્ટને કહ્યું.
સાન ફ્રાન્સિસ્કો સ્ટાર્ટ-અપ ઓપનએઆઈ રિલીઝ થયા પછી માર્ચમાં ChatGPT નું નવું સંસ્કરણ1,000 થી વધુ તકનીકી નેતાઓ અને સંશોધકો ખુલ્લા પત્ર પર સહી કરી નવી પ્રણાલીઓના વિકાસ પર છ મહિનાની મુદતની માંગણી કરવી કારણ કે AI ટેક્નોલોજીઓ “સમાજ અને માનવતા માટે ગહન જોખમો” ઉભી કરે છે.
કેટલાક દિવસો પછી, 40 વર્ષ જૂની એકેડેમિક સોસાયટી, આર્ટિફિશિયલ ઈન્ટેલિજન્સ એડવાન્સમેન્ટ ઓફ એસોસિયેશનના 19 વર્તમાન અને ભૂતપૂર્વ નેતાઓ, પોતાનો પત્ર બહાર પાડ્યો એઆઈના જોખમોની ચેતવણી તે જૂથમાં માઇક્રોસોફ્ટના મુખ્ય વૈજ્ઞાનિક અધિકારી એરિક હોર્વિટ્ઝનો સમાવેશ થાય છે, જેણે ઉત્પાદનોની વિશાળ શ્રેણીમાં ઓપનએઆઈની ટેકનોલોજીનો ઉપયોગ કર્યો છે, તેના Bing સર્ચ એન્જિન સહિત.
ડો. હિન્ટન, જેને ઘણીવાર “એઆઈના ગોડફાધર” તરીકે ઓળખવામાં આવે છે, તેમાંથી કોઈ પણ પત્ર પર સહી કરી ન હતી અને કહ્યું હતું કે જ્યાં સુધી તેઓ તેમની નોકરી છોડી ન દે ત્યાં સુધી તેઓ Google અથવા અન્ય કંપનીઓની જાહેરમાં ટીકા કરવા માંગતા નથી. તેમણે ગયા મહિને કંપનીને જાણ કરી હતી કે તેઓ રાજીનામું આપી રહ્યાં છે અને ગુરુવારે તેમણે Googleની પેરેન્ટ કંપની આલ્ફાબેટના ચીફ એક્ઝિક્યુટિવ સુંદર પિચાઈ સાથે ફોન પર વાત કરી હતી. તેમણે શ્રી પિચાઈ સાથેની તેમની વાતચીતની વિગતો જાહેરમાં ચર્ચા કરવાનો ઇનકાર કર્યો હતો.
Google ના મુખ્ય વૈજ્ઞાનિક, જેફ ડીને એક નિવેદનમાં કહ્યું: “અમે AI પ્રત્યે જવાબદાર અભિગમ માટે પ્રતિબદ્ધ છીએ અમે સતત ઉભરતા જોખમોને સમજવાનું શીખીએ છીએ અને હિંમતભેર નવીનતા પણ કરીએ છીએ.”
ડૉ. હિન્ટન, 75 વર્ષીય બ્રિટિશ વસાહતી, એક આજીવન શૈક્ષણિક છે જેમની કારકિર્દી AI ના વિકાસ અને ઉપયોગ વિશેની તેમની વ્યક્તિગત માન્યતાઓ દ્વારા સંચાલિત હતી, 1972 માં, એડિનબર્ગ યુનિવર્સિટીમાં સ્નાતક વિદ્યાર્થી તરીકે, ડૉ. હિન્ટનને સ્વીકાર્યું. વિચારને ન્યુરલ નેટવર્ક કહેવાય છે. એ ન્યુરલ નેટવર્ક એક ગાણિતિક સિસ્ટમ છે જે ડેટાનું વિશ્લેષણ કરીને કૌશલ્ય શીખે છે. તે સમયે, થોડા સંશોધકો આ વિચારમાં વિશ્વાસ કરતા હતા. પરંતુ તે તેના જીવનનું કાર્ય બની ગયું.
1980ના દાયકામાં, ડૉ. હિન્ટન કાર્નેગી મેલોન યુનિવર્સિટીમાં કોમ્પ્યુટર સાયન્સના પ્રોફેસર હતા, પરંતુ તેમણે યુનિવર્સિટી છોડી દીધી હતી કારણ કે તેમણે કહ્યું હતું કે તેઓ પેન્ટાગોનનું ભંડોળ લેવા માટે અનિચ્છા ધરાવતા હતા. તે સમયે, યુનાઇટેડ સ્ટેટ્સમાં મોટાભાગના AI સંશોધનને સંરક્ષણ વિભાગ દ્વારા ભંડોળ પૂરું પાડવામાં આવતું હતું. ડૉ. હિન્ટન યુદ્ધના મેદાનમાં કૃત્રિમ બુદ્ધિમત્તાના ઉપયોગનો ઊંડો વિરોધ કરે છે – જેને તેઓ “રોબોટ સૈનિકો” કહે છે.
2012 માં, ડો. હિન્ટન અને ટોરોન્ટોમાં તેમના બે વિદ્યાર્થીઓ, ઇલ્યા સુતસ્કેવર અને એલેક્સ ક્રિશેવસ્કીએ, એક ન્યુરલ નેટવર્ક બનાવ્યું જે હજારો ફોટાનું વિશ્લેષણ કરી શકે અને પોતાને સામાન્ય વસ્તુઓ, જેમ કે ફૂલો, કૂતરા અને કારને ઓળખવાનું શીખવી શકે.
Google $44 મિલિયન ખર્ચ્યા ડો. હિન્ટન અને તેમના બે વિદ્યાર્થીઓ દ્વારા શરૂ કરાયેલી કંપની હસ્તગત કરવા. અને તેમના સિસ્ટમ જેમ કે નવા ચેટબોટ્સ સહિત વધુને વધુ શક્તિશાળી તકનીકોની રચના તરફ દોરી ChatGPT અને ગૂગલ બાર્ડ. શ્રી સુતસ્કેવર ઓપનએઆઈના મુખ્ય વૈજ્ઞાનિક બન્યા. 2018 માં, ડૉ. હિન્ટન અને અન્ય બે લાંબા સમયથી સહયોગીઓ ટ્યુરિંગ એવોર્ડ મેળવ્યોઘણીવાર ન્યુરલ નેટવર્ક્સ પરના તેમના કાર્ય માટે “કમ્પ્યુટિંગનું નોબેલ પુરસ્કાર” કહેવાય છે.
તે જ સમયે, ગૂગલ, ઓપનએઆઈ અને અન્ય કંપનીઓએ ન્યુરલ નેટવર્ક બનાવવાનું શરૂ કર્યું જે મોટી માત્રામાં ડિજિટલ ટેક્સ્ટમાંથી શીખ્યા. ડો. હિન્ટન માનતા હતા કે મશીનો માટે ભાષાને સમજવા અને ઉત્પન્ન કરવાની તે એક શક્તિશાળી રીત છે, પરંતુ તે માનવીઓ દ્વારા ભાષાને નિયંત્રિત કરવાની રીત કરતાં હલકી ગુણવત્તાની હતી.
પછી, ગયા વર્ષે, જેમ જેમ Google અને OpenAI એ ઘણી મોટી માત્રામાં ડેટાનો ઉપયોગ કરીને સિસ્ટમ બનાવી, તેમનો દૃષ્ટિકોણ બદલાઈ ગયો. તે હજુ પણ માનતો હતો કે સિસ્ટમો અમુક રીતે માનવ મગજ કરતાં હલકી ગુણવત્તાવાળી છે પરંતુ તેણે વિચાર્યું કે તે અન્યમાં માનવ બુદ્ધિને ગ્રહણ કરી રહી છે. “કદાચ આ સિસ્ટમોમાં શું ચાલી રહ્યું છે,” તેણે કહ્યું, “ખરેખર મગજમાં જે ચાલી રહ્યું છે તેના કરતા ઘણું સારું છે.”
જેમ જેમ કંપનીઓ તેમની AI સિસ્ટમમાં સુધારો કરે છે તેમ તેમ તેમનું માનવું છે કે તેઓ વધુને વધુ જોખમી બની રહ્યા છે. “પાંચ વર્ષ પહેલા તે કેવું હતું અને હવે કેવું છે તે જુઓ,” તેણે AI ટેક્નોલોજી વિશે કહ્યું. “ફરક લો અને તેને આગળ પ્રચાર કરો. તે ડરામણી છે.”
ગયા વર્ષ સુધી, તેમણે કહ્યું હતું કે, ગૂગલે ટેક્નોલોજી માટે “યોગ્ય કારભારી” તરીકે કામ કર્યું હતું, જે નુકસાન પહોંચાડી શકે તેવી કોઈ વસ્તુને રિલીઝ ન કરવાની કાળજી રાખે છે. પરંતુ હવે જ્યારે માઈક્રોસોફ્ટે તેના બિંગ સર્ચ એન્જિનને ચેટબોટ સાથે વધારી દીધું છે — ગૂગલના મુખ્ય વ્યવસાયને પડકારરૂપ — Google એ જ પ્રકારની ટેક્નોલોજીનો ઉપયોગ કરવા માટે દોડધામ કરી રહ્યું છે. ડો. હિન્ટને જણાવ્યું હતું કે ટેક જાયન્ટ્સ એક એવી સ્પર્ધામાં લૉક છે જેને રોકવું કદાચ અશક્ય છે.
તેની તાત્કાલિક ચિંતા એ છે કે ઇન્ટરનેટ ખોટાથી ભરાઈ જશે ફોટા, વીડિયો અને ટેક્સ્ટઅને સરેરાશ વ્યક્તિ “હવે સાચું શું છે તે જાણી શકશે નહીં.”
તેને એ વાતની પણ ચિંતા છે કે AI ટેક્નોલોજીઓ સમય જતાં જોબ માર્કેટમાં વધારો કરશે. આજે, ચેટજીપીટી જેવા ચેટબોટ્સ માનવ કામદારોને પૂરક બનાવવાનું વલણ ધરાવે છે, પરંતુ તેઓ પેરાલીગલ, અંગત સહાયકો, અનુવાદકો અને અન્ય લોકો કે જેઓ રોટે કાર્યોનું સંચાલન કરે છે તેમને બદલી શકે છે. “તે કઠોર કાર્યને દૂર કરે છે,” તેમણે કહ્યું. “તે તેનાથી વધુ લઈ શકે છે.”
રસ્તામાં, તે ચિંતિત છે કે ટેક્નોલોજીના ભાવિ સંસ્કરણો માનવતા માટે જોખમ ઊભું કરે છે કારણ કે તેઓ તેઓ વિશ્લેષણ કરે છે તે વિશાળ માત્રામાં ડેટામાંથી ઘણીવાર અનપેક્ષિત વર્તન શીખે છે. આ એક મુદ્દો બની જાય છે, તેમણે કહ્યું, કારણ કે વ્યક્તિઓ અને કંપનીઓ એઆઈ સિસ્ટમ્સને માત્ર તેમના પોતાના કમ્પ્યુટર કોડ જનરેટ કરવાની જ નહીં પરંતુ વાસ્તવમાં તે કોડને તેમના પોતાના પર ચલાવવાની મંજૂરી આપે છે. અને તે એવા દિવસથી ડરશે જ્યારે ખરેખર સ્વાયત્ત શસ્ત્રો – તે કિલર રોબોટ્સ – વાસ્તવિકતા બની જશે.
“એ વિચાર કે આ સામગ્રી ખરેખર લોકો કરતાં વધુ સ્માર્ટ બની શકે છે – થોડા લોકો એવું માનતા હતા,” તેમણે કહ્યું. “પરંતુ મોટાભાગના લોકોએ વિચાર્યું કે તે દૂર છે. અને મેં વિચાર્યું કે તે માર્ગ બંધ હતો. મેં વિચાર્યું કે તે 30 થી 50 વર્ષ અથવા તેનાથી પણ વધુ દૂર છે. દેખીતી રીતે, હું હવે એવું વિચારતો નથી. ”
તેમના ઘણા વિદ્યાર્થીઓ અને સાથીદારો સહિત અન્ય ઘણા નિષ્ણાતો કહે છે કે આ ધમકી કાલ્પનિક છે. પરંતુ ડો. હિન્ટન માને છે કે ગૂગલ અને માઇક્રોસોફ્ટ અને અન્યો વચ્ચેની રેસ વૈશ્વિક રેસમાં વધશે જે અમુક પ્રકારના વૈશ્વિક નિયમન વિના અટકશે નહીં.
પરંતુ તે અશક્ય હોઈ શકે છે, તેમણે કહ્યું. પરમાણુ શસ્ત્રોથી વિપરીત, તેમણે કહ્યું કે, કંપનીઓ અથવા દેશો ગુપ્ત રીતે ટેક્નોલોજી પર કામ કરી રહ્યા છે કે કેમ તે જાણવાની કોઈ રીત નથી. વિશ્વના અગ્રણી વૈજ્ઞાનિકો ટેક્નોલોજીને નિયંત્રિત કરવાના માર્ગો પર સહયોગ કરે તેવી શ્રેષ્ઠ આશા છે. “મને નથી લાગતું કે જ્યાં સુધી તેઓ સમજી ન જાય કે તેઓ તેને નિયંત્રિત કરી શકે છે કે નહીં ત્યાં સુધી તેઓએ આને વધુ સ્કેલ કરવું જોઈએ,” તેમણે કહ્યું.
ડો. હિન્ટને કહ્યું કે જ્યારે લોકો તેમને પૂછતા હતા કે તે સંભવિત જોખમી એવી ટેક્નોલોજી પર કેવી રીતે કામ કરી શકે છે, ત્યારે તે રોબર્ટ ઓપેનહાઇમરને સમજાવતા હતા, જેમણે અણુ બોમ્બ બનાવવા માટે યુએસના પ્રયાસનું નેતૃત્વ કર્યું હતું: “જ્યારે તમે કંઈક એવું જુઓ છો જે તકનીકી રીતે મીઠી હોય, ત્યારે તમે આગળ વધો અને તે કરો.”
તે હવે એવું કહેતો નથી.
દ્વારા ઉત્પાદિત ઓડિયો એડ્રિન હર્સ્ટ.