ડિજિટલ આફ્ટરલાઇફના ક્ષેત્રમાં, જ્યાં AI ટેક્નોલોજી મૃતક સાથે વાતચીત કરવા સક્ષમ બનાવે છે, કેમ્બ્રિજ યુનિવર્સિટીના વૈજ્ઞાનિકો દ્વારા નૈતિક સીમાઓ અને સંભવિત નુકસાન વિશેની ચિંતાઓ મોખરે લાવવામાં આવી છે. “ડેડબોટ્સ” અથવા “ગ્રિફબોટ્સ” તરીકે ડબ કરાયેલા, આ AI-સંચાલિત ચેટબોટ્સ મૃત પ્રિયજનોની ભાષા અને વ્યક્તિત્વની નકલ કરવા માટે રચાયેલ છે, જે શોકગ્રસ્તોને સાંત્વના આપે છે. જો કે, તાજેતરનો અભ્યાસ ચેતવણી આપે છે કે આ નવીનતાઓ અણધાર્યા પરિણામો તરફ દોરી શકે છે, જેમાં સંશોધકો સલામતી ધોરણોમાં અભાવને “ડિજિટલ હોન્ટિંગ્સ” તરીકે વર્ણવે છે.

જોશુઆ બાર્બ્યુ જેવી વ્યક્તિઓના અનુભવો દ્વારા આવી ટેક્નોલોજીની નૈતિક અસરોને રેખાંકિત કરવામાં આવી હતી, જેમણે તેમની મૃત મંગેતરની ડિજિટલ પ્રતિકૃતિ સાથે વાતચીત કરવા માટે પ્રોજેક્ટ ડિસેમ્બર તરીકે ઓળખાતી AI ટેક્નોલોજીના પ્રારંભિક સંસ્કરણનો ઉપયોગ કર્યો હતો. AI ને તેણીના લખાણોના નમૂનાઓ અને વ્યક્તિગત વર્ણનો સાથે પ્રદાન કરીને, બાર્બ્યુએ જીવનભરના પ્રતિભાવો જોયા કે જેણે આવી ટેક્નોલોજીના સંભવિત દુરુપયોગ અંગે ચિંતાઓ ઉભી કરી, જેમાં મૃતકના વિચારોની છૂપી જાહેરાતો દાખલ કરવામાં આવી.
તદુપરાંત, મનોવૈજ્ઞાનિકો નુકસાનનો સામનો કરી રહેલા બાળકો પર આ તકનીકોની અસર પર ભાર મૂકે છે, મૃતકના ગૌરવ અને જીવંત લોકોની સુખાકારી વિશે પ્રશ્નો ઉભા કરે છે. પડોવા યુનિવર્સિટીના પ્રોફેસર ઈનેસ ટેસ્ટોની મૃત્યુ અને તેના પછીના પરિણામોને સમજવાના મહત્વ પર ભાર મૂકતા, મૃત પ્રિયજનોથી અલગ થવાની મુશ્કેલી પર ભાર મૂકે છે. સંભવિત જોખમોને દર્શાવવા માટે, કેમ્બ્રિજ AI નીતિશાસ્ત્રીઓ ત્રણ કાલ્પનિક દૃશ્યોની રૂપરેખા આપે છે જ્યાં ગ્રિફબોટ્સ નુકસાન પહોંચાડી શકે છે.
આમાં વાણિજ્યિક ઉત્પાદનોનો પ્રચાર કરતી મૃત વ્યક્તિઓના અનધિકૃત અનુકરણ, અવાસ્તવિક ક્રિયાપ્રતિક્રિયાઓથી ઉદભવતી મૂંઝવણ જે હીલિંગમાં વિલંબ તરફ દોરી જાય છે, અને અનિચ્છા પ્રાપ્તકર્તાઓ પર ડિજિટલ હાજરી લાદવી, ભાવનાત્મક તકલીફ અને અપરાધનું કારણ બને છે. અભ્યાસ ગ્રિફબોટ્સ માટે સંમતિ-આધારિત ડિઝાઇન પ્રક્રિયાઓના અમલીકરણની હિમાયત કરે છે, નાપસંદ કરવાની પદ્ધતિઓ અને વય પ્રતિબંધોને સમાવિષ્ટ કરે છે. વધુમાં, તે આ ડિજિટલ પ્રતિકૃતિઓને સન્માનપૂર્વક નિવૃત્ત કરવા માટે નવી ધાર્મિક વિધિઓ માટે કહે છે, પ્રશ્ન કરે છે કે શું આવી તકનીક માત્ર દુઃખની પ્રક્રિયામાં વિલંબ કરે છે.
અભ્યાસના સહ-લેખક ડૉ. કેટાર્ઝિના નોવાઝિક-બાસિન્સ્કા, મૃતકના ગૌરવને પ્રાથમિકતા આપવાની અને ડેટા દાતાઓ અને વપરાશકર્તાઓ બંનેના અધિકારોનું રક્ષણ કરવાની જરૂરિયાત પર ભાર મૂકતા, ડિજિટલ આફ્ટરલાઇફમાં AI ની નૈતિક જટિલતાઓને પ્રકાશિત કરે છે. ડિજિટલ આફ્ટરલાઇફના ક્ષેત્રમાં AI નો ઉપયોગ સતત વિકસિત થઈ રહ્યો છે, આ અજાણ્યા પ્રદેશને નેવિગેટ કરવામાં નૈતિક બાબતો સર્વોપરી રહે છે. ચીનમાં, મૃતક પ્રિયજનોની AI-જનરેટેડ પ્રતિકૃતિઓનો વધતો જતો ઉદ્યોગ નોંધપાત્ર નૈતિક પ્રશ્નો ઉભા કરતી વખતે શોક કરનારાઓને આશ્વાસન આપે છે. સિલિકોન ઇન્ટેલિજન્સ જેવી કંપનીઓ AI ટેક્નોલૉજીમાં પ્રગતિનો લાભ ઉઠાવી રહી છે જે ડિજિટલ અવતાર બનાવે છે જે મૃત લોકો સાથે વાતચીતનું અનુકરણ કરે છે, સન કાઈ જેવી વ્યક્તિઓને આરામ આપે છે, જેઓ તેની મૃત માતા સાથે જોડાણ જાળવી રાખવા માંગે છે.
આ સેવાઓની માંગ મૃતકો સાથે વાતચીત કરવાની સાંસ્કૃતિક પરંપરાને રેખાંકિત કરે છે, પરંતુ વિવેચકો પ્રશ્ન કરે છે કે શું AI પ્રતિકૃતિઓ સાથે ક્રિયાપ્રતિક્રિયા કરવી એ દુઃખની પ્રક્રિયા કરવાનું એક તંદુરસ્ત માધ્યમ છે. તકનીકી મર્યાદાઓ અને નૈતિક અનિશ્ચિતતાઓ હોવા છતાં, ડિજિટલ અમરત્વ માટેનું બજાર તેજીમાં છે, કિંમતો ઘટી રહી છે અને ઍક્સેસિબિલિટી વધી રહી છે. AI-જનરેટેડ અવતાર, ડીપફેક્સ જેવા, મૃત વ્યક્તિની સમાનતા અને વાણીની પેટર્નની નકલ કરવા માટે ફોટા, વિડિયો અને ટેક્સ્ટ જેવા ડેટા ઇનપુટ્સ પર આધાર રાખે છે. AI ટેક્નોલોજીમાં ચીનની ઝડપી પ્રગતિએ આવી સેવાઓને વધુ સુલભ બનાવી છે, જેમાં સિલિકોન ઈન્ટેલિજન્સ જેવી કંપનીઓ ઇન્ટરેક્ટિવ એપ્સથી લઈને ટેબલેટ ડિસ્પ્લે સુધીના કસ્ટમાઈઝેબલ વિકલ્પો ઓફર કરે છે.
જ્યારે કેટલાક આ પ્રતિકૃતિઓને રોગનિવારક તરીકે જુએ છે, અન્ય લોકો ક્રિયાપ્રતિક્રિયાઓની અધિકૃતતા અને તેમની સંમતિ વિના મૃતકોની પ્રતિકૃતિ બનાવવાના નૈતિક અસરો વિશે ચિંતા કરે છે. વધુમાં, ટેકનિકલ પડકારો જેમ કે શરીરની હિલચાલની નકલ કરવી અને પર્યાપ્ત પ્રશિક્ષણ ડેટા મેળવવામાં નોંધપાત્ર અવરોધો ઊભા થાય છે. AI પ્રતિકૃતિઓની આસપાસના નૈતિક દુવિધાઓનું ઉદાહરણ નિંગબોમાં એક કંપની સાથે સંકળાયેલી વિવાદાસ્પદ ઘટના દ્વારા આપવામાં આવ્યું હતું , જેણે સંમતિ વિના મૃત હસ્તીઓના વીડિયો બનાવવા માટે AI નો ઉપયોગ કર્યો હતો. આ ઘટનાએ લોકોમાં આક્રોશ ફેલાવ્યો અને ડિજિટલ આફ્ટરલાઇફ ટેક્નોલોજીના વધતા જતા ક્ષેત્રમાં સ્પષ્ટ નૈતિક માર્ગદર્શિકાની જરૂરિયાતને પ્રકાશિત કરી.
