രചന : ജോർജ് കക്കാട്ട് ✍️
ഡീപ്പ് ഫേക്കുകൾ എന്ന് വിളിക്കപ്പെടുന്നതിനെക്കുറിച്ച് ഇക്കാലത്ത് മാധ്യമങ്ങളിൽ ധാരാളം ചർച്ചകൾ നടക്കുന്നുണ്ട്, അതായത് കൃത്രിമബുദ്ധി ഉപയോഗിച്ച് കൃത്രിമമായി സൃഷ്ടിക്കുന്ന ഉള്ളടക്കം. ഈ അഭിമുഖത്തിൽ, റിസർച്ച് സെന്റർ ഫോർ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് (DFKI) യുടെ സിഇഒ പ്രൊഫസർ ഡോ. ക്രൂഗർ, ഡീപ്പ്ഫേക്കുകൾ എന്താണെന്നും അവ എങ്ങനെ തിരിച്ചറിയാമെന്നും അവ എങ്ങനെ കൈകാര്യം ചെയ്യാമെന്നും വിശദീകരിക്കുന്നു.
ഡീപ്പ് ഫേക്കുകൾ എന്താണ്?
ഡീപ്പ് ഫേക്ക് എന്ന പദം “ഡീപ്പ്”, അതായത് ആഴത്തിലുള്ള പഠനം, അടിസ്ഥാനപരമായ കൃത്രിമ ന്യൂറൽ നെറ്റ്വർക്കുകളുള്ള ഒരു AI സാങ്കേതികത, വ്യാജം എന്നർത്ഥം വരുന്ന “ഫേക്ക്” എന്നിവയുടെ സംയോജനമാണ്. കൃത്രിമബുദ്ധി രീതികൾ ഉപയോഗിച്ച് കൃത്രിമമായി സൃഷ്ടിക്കുന്ന ഓഡിയോ, ഫോട്ടോകൾ, വീഡിയോകൾ തുടങ്ങിയ മീഡിയ ഉള്ളടക്കമാണ് ഡീപ്പ്ഫേക്കുകൾ, അത് എളുപ്പത്തിൽ തിരിച്ചറിയാൻ കഴിയാത്ത, അതായത് വ്യാജമായി നിർമ്മിക്കാൻ കഴിയാത്ത ഒരു ഗുണനിലവാരത്തിലേക്ക്.
ഡീപ്പ്ഫേക്കിന്റെ ഏറ്റവും അറിയപ്പെടുന്ന തരം ഫെയ്സ് സ്വാപ്പ് ആണ്. ഒരു ചിത്രത്തിലോ വീഡിയോയിലോ ഒരു ഉറവിട വ്യക്തിയുടെ മുഖം ഒരു ലക്ഷ്യ വ്യക്തിയുടെ മുഖം ഉപയോഗിച്ച് മാറ്റിസ്ഥാപിക്കുന്നത് ഇതിൽ ഉൾപ്പെടുന്നു. ഇത് (ഓഡിയോ ടെക്നിക്കുകളുമായി സംയോജിപ്പിച്ച്) സംശയാസ്പദമായ വ്യക്തികൾ ഒരിക്കലും പറഞ്ഞിട്ടില്ലാത്തതോ ചെയ്തിട്ടില്ലാത്തതോ ആയ വ്യാജ പ്രസ്താവനകളും പ്രവൃത്തികളും സൃഷ്ടിക്കാൻ അനുവദിക്കുന്നു.
അത്തരം ഡീപ്ഫേക്കുകൾ എങ്ങനെയാണ് രൂപകൽപ്പന ചെയ്ത് പ്രോഗ്രാം ചെയ്യുന്നത്?
കൃത്രിമ ന്യൂറൽ നെറ്റ്വർക്കുകൾ ഉപയോഗിച്ച് ആഴത്തിലുള്ള പഠന രീതികൾ ഉപയോഗിച്ച് ഫെയ്സ് സ്വാപ്പുകൾ സൃഷ്ടിക്കുന്നതിനുള്ള AI സംവിധാനങ്ങൾ വ്യാജത്തെ ക്രമേണ പൂർണതയിലെത്തിക്കുന്നു. വിവിധ ബയോമെട്രിക് പാരാമീറ്ററുകൾ അടിസ്ഥാനമാക്കി ഇമേജ് മെറ്റീരിയൽ വിശകലനം ചെയ്ത് ഫീച്ചർ വെക്റ്ററുകളായി വിഭജിച്ച് ഒരു എൻകോഡർ ഒരു വ്യക്തിയുടെ മുഖം വായിക്കുകയും പഠിക്കുകയും ചെയ്യുന്നു. ഇവ പിന്നീട് ലെയർ ബൈ ലെയർ ഒരു മോഡലിലേക്ക് കൂട്ടിച്ചേർക്കുന്നു. എൻകോഡർ ജനറേറ്റുചെയ്ത ഫെയ്സ് മോഡലിനെ ഒറിജിനലുമായി തുടർച്ചയായി താരതമ്യം ചെയ്തുകൊണ്ട്, AI സിസ്റ്റം ക്രമേണ ഫലം ഒപ്റ്റിമൈസ് ചെയ്യുന്നു. പലപ്പോഴും, GAN (ജനറേറ്റീവ് അഡ്വർസറിയൽ നെറ്റ്വർക്ക്) സമീപനങ്ങൾ ഉപയോഗിക്കുന്നു, അതിൽ രണ്ട് ന്യൂറൽ നെറ്റ്വർക്കുകൾ ഘട്ടം ഘട്ടമായി ഫലം ഒപ്റ്റിമൈസ് ചെയ്യാൻ മത്സരിക്കുന്നു. യഥാർത്ഥത്തിൽ ബോധ്യപ്പെടുത്തുന്ന വ്യാജങ്ങൾക്ക്, പരിശീലന പ്രക്രിയയിൽ 50,000 ആവർത്തനങ്ങളോ അതിൽ കൂടുതലോ ഉൾപ്പെടുന്നു. തുടർന്ന് ഡീകോഡർ ഫേഷ്യൽ മോഡൽ ടാർഗെറ്റ് ഫോർമാറ്റിലേക്ക് തിരുകിക്കൊണ്ട് വ്യാജ ചിത്രമോ വീഡിയോയോ സൃഷ്ടിക്കുന്നു.
ഓഡിയോ മേഖലയിൽ, നാച്ചുറൽ ലാംഗ്വേജ് പ്രോസസ്സിംഗിന്റെ (NLP) ഒരു ഉപവിഭാഗമായ ടെക്സ്റ്റ്-ടു-സ്പീച്ച് (TTS) പോലുള്ള AI സാങ്കേതികവിദ്യകൾ, വർദ്ധിച്ചുവരുന്ന യാഥാർത്ഥ്യബോധത്തോടെ ശബ്ദങ്ങളെ അനുകരിക്കാനുള്ള കഴിവിൽ ഇതിനകം തന്നെ വളരെയധികം മുന്നേറിയിട്ടുണ്ട്, ഇത് സിന്തറ്റിക് ശബ്ദങ്ങളെ മനുഷ്യരുടേതിന് സമാനമാക്കുന്നു. നിലവിലുള്ള ആളുകളുടെ ശബ്ദങ്ങളെ ബോധ്യപ്പെടുത്തുന്ന തരത്തിൽ അനുകരിക്കാൻ കഴിയുന്നതും ആർക്കും വീട്ടിൽ തന്നെ പരീക്ഷിച്ചുനോക്കാവുന്നതുമായ നിരവധി AI ആപ്ലിക്കേഷനുകൾ ഇതിനകം ലഭ്യമാണ് (“വോയ്സ് മിമിക്രി,” “ലൈർബേർഡ്,” “വോയ്സ് ക്ലോണിംഗ്,” മുതലായവ).
ഡീപ്ഫേക്കുകൾ എങ്ങനെ കണ്ടെത്താനാകും?
സാങ്കേതിക ഫോറൻസിക്സ് മേഖലയിൽ, പൊതുവായ നിയമം ഇതാണ്: ഒരു വ്യാജ ചിത്രത്തിന്റെയോ വീഡിയോയുടെയോ റെസല്യൂഷൻ ഉയർന്നതാണെങ്കിൽ, കമ്പ്യൂട്ടറിന്റെ സഹായമില്ലാതെ, സ്വന്തം കണ്ണുകളും കാതുകളും ഉപയോഗിച്ച്, ഏറ്റവും കുറഞ്ഞ ആർട്ടിഫാക്റ്റുകളുടെയും ചെറിയ പിശകുകളുടെയും അടിസ്ഥാനത്തിൽ ഒരു വ്യക്തിക്ക് വ്യാജം എളുപ്പത്തിൽ കണ്ടെത്താനാകും. എന്നിരുന്നാലും, സോഷ്യൽ മീഡിയയുടെ മേഖലയിൽ, ഡീപ്ഫേക്കുകൾ പ്രധാനമായും പ്രചരിപ്പിക്കപ്പെടുന്നിടത്ത്, വീഡിയോകളും ചിത്രങ്ങളും സാധാരണയായി താരതമ്യേന മോശം ഗുണനിലവാരമുള്ളവയാണ്. ഈ കുറഞ്ഞ റെസല്യൂഷൻ മീഡിയ ഉള്ളടക്കങ്ങൾ വ്യാജമായി തുറന്നുകാട്ടാൻ കഴിയുമെങ്കിൽ, ഈ ആവശ്യത്തിനായി പ്രത്യേകം പരിശീലനം ലഭിച്ച പ്രത്യേക AI സംവിധാനങ്ങളുടെ ഉപയോഗത്തിലൂടെ മാത്രമേ ഇത് സാധ്യമാകൂ.
“റിയാലിറ്റി ഡിഫൻഡർ” (AI ഫൗണ്ടേഷൻ) അല്ലെങ്കിൽ “ഫേസ് ഫോറൻസിക്സ്” (TU മ്യൂണിക്ക്) പോലുള്ള സംവിധാനങ്ങൾ മാധ്യമ ഫോറൻസിക് ശാസ്ത്രജ്ഞർക്ക് ശക്തമായ ഉപകരണങ്ങളാണ്, തുടർന്ന് അവ സ്പേഷ്യൽ എൻവയോൺമെന്റ്, ശബ്ദം, പ്രസിദ്ധീകരണ സമയം, സ്ഥലം തുടങ്ങിയ അധിക പാരാമീറ്ററുകളും മെറ്റാഡാറ്റയും അവരുടെ വിശകലനത്തിൽ ഉൾപ്പെടുത്തുന്നു. എന്നിരുന്നാലും, അത്തരം കണ്ടെത്തൽ രീതികളുടെ ഫലങ്ങൾ തുടർന്നുള്ള ഘട്ടങ്ങളിൽ വ്യാജങ്ങളുടെ ഉത്പാദനത്തിൽ ഉൾപ്പെടുത്താം, അതിനാൽ ഈ മേഖല ഇതിനകം ഒരു “ആയുധ മത്സരത്തിൽ” ഏർപ്പെട്ടിരിക്കുന്നു.
എന്തായാലും, മാധ്യമങ്ങളെ നിഷ്ക്രിയമായും നിഷ്കളങ്കമായും ഉപയോഗിക്കരുത്; പകരം, എല്ലാവരും അതിന്റെ സാംസ്കാരികവും വസ്തുതാപരവുമായ വിശ്വാസ്യതയ്ക്കായി ഉള്ളടക്കത്തെ നിരന്തരം പരിശോധിക്കണം.
ഡീപ്ഫേക്കുകളുമായി ബന്ധപ്പെട്ട അപകടങ്ങൾ എന്തൊക്കെയാണ്?
മനുഷ്യർ സാമൂഹിക ജീവികളാണ്, പക്ഷേ എല്ലായ്പ്പോഴും സത്യസന്ധരല്ല. വ്യാജ വാർത്തകളുടെയും അസത്യ അവകാശവാദങ്ങളുടെയും പ്രസിദ്ധീകരണവും പ്രചാരണവും വളരെ പഴയതാണ്, ഒരുപക്ഷേ ഭാഷയോളം തന്നെ പഴക്കമുള്ളതാണ്. മനുഷ്യർ, എല്ലാറ്റിനുമുപരി, ഓഡിയോവിഷ്വൽ ജീവികളാണ്. ആരെങ്കിലും പറയുന്നത് കേൾക്കുമ്പോഴോ ഒരു ഫിലിം സീക്വൻസിൽ അവർ എന്താണ് ചെയ്യുന്നതെന്ന് കാണുമ്പോഴോ, അത് തുടക്കത്തിൽ നമുക്ക് വിശ്വസനീയമായി തോന്നുന്നു.
ഇന്ന്, വാർത്തകളുടെയും മാധ്യമ ഉള്ളടക്കത്തിന്റെയും വിതരണം പരമ്പരാഗത മാധ്യമങ്ങളുടെ (പ്രിന്റ്, ടിവി, റേഡിയോ) മാത്രം ഉത്തരവാദിത്തമല്ല. അവരുടെ സമഗ്രമായ എഡിറ്റോറിയൽ നിയന്ത്രണം ഒരു പ്രത്യേക സത്യാന്വേഷണത്തെ നിയമവിധേയമാക്കി. ഇന്റർനെറ്റിന്, പ്രത്യേകിച്ച് സോഷ്യൽ മീഡിയയ്ക്കും, മൊബൈൽ ഉപകരണങ്ങളുടെ ദ്രുതഗതിയിലുള്ള സാങ്കേതിക വികസനത്തിനും നന്ദി, ഇപ്പോൾ എല്ലാവർക്കും ഓഡിയോവിഷ്വൽ ഉള്ളടക്കം സൃഷ്ടിക്കാൻ മാത്രമല്ല, ഗണ്യമായ വ്യാപ്തിയിൽ അത് വിതരണം ചെയ്യാനും കഴിയും. “Reface,” “Impressions,” അല്ലെങ്കിൽ “DeepFaceLab” പോലുള്ള ആപ്പുകൾ പ്രായോഗികമായി സൗജന്യമായി ലഭ്യമാണ്, കൂടാതെ പ്രോഗ്രാമിംഗ് കഴിവുകളും എളുപ്പത്തിൽ ലഭ്യമാണ്.
കുറഞ്ഞ സുരക്ഷ ആവശ്യമാണ്, അതായത് സൈദ്ധാന്തികമായി ആർക്കും ഡീപ്പ്ഫേക്കുകൾ സൃഷ്ടിക്കാനും വിതരണം ചെയ്യാനും കഴിയും.
സോഷ്യൽ എഞ്ചിനീയറിംഗ്, അഭിപ്രായ കൃത്രിമത്വം, രാഷ്ട്രീയം, ബിസിനസ്സ്, സമൂഹം എന്നിവയെ സ്വാധീനിക്കുന്നതിനായി വ്യാജ മാധ്യമ ഉള്ളടക്കം ഉപയോഗിക്കുമ്പോൾ അത് വലിയ നാശനഷ്ടങ്ങൾ വരുത്തും. ഉദാഹരണത്തിന്, തിരഞ്ഞെടുപ്പ് കൃത്രിമത്വം അല്ലെങ്കിൽ വ്യക്തികളെയും കമ്പനികളെയും അപകീർത്തിപ്പെടുത്തൽ എന്നിവ ഇതിൽ ഉൾപ്പെടുന്നു.
തെറ്റായ വിവരങ്ങളുടെ പശ്ചാത്തലത്തിൽ ഡീപ്പ്ഫേക്കുകൾ എങ്ങനെ തടയാനും പ്രതിരോധിക്കാനും കഴിയും?
ശാസ്ത്ര, സാങ്കേതിക, രാഷ്ട്രീയ, നിയമ, സാംസ്കാരിക മേഖലകളിൽ നടപടി ആവശ്യമാണ്. സാങ്കേതികമായി, ഡീപ്പ്ഫേക്കുകൾ തടയുന്നതിനോ അവയുടെ കണ്ടെത്തൽ സുഗമമാക്കുന്നതിനോ വിവിധ രീതികൾ വികസിപ്പിച്ചുകൊണ്ടിരിക്കുന്നു. പ്രത്യേകിച്ചും, ഡിജിറ്റൽ വാട്ടർമാർക്കുകളുടെ ഉപയോഗം, ബ്ലോക്ക്ചെയിൻ സാങ്കേതികവിദ്യ, സോഫ്റ്റ്വെയറിന്റെ സ്ഥിരമായ സർട്ടിഫിക്കേഷൻ എന്നിവ പരിശോധിച്ചുവരികയാണ്. AI സാങ്കേതികവിദ്യ നിയന്ത്രിക്കുന്നതിൽ EU കമ്മീഷൻ പ്രവർത്തിക്കുന്നു. ഡീപ്പ്ഫേക്കുകളുടെ ഒരു പ്രളയം തടയുന്നതിന് ഉള്ളടക്ക വിതരണക്കാരെ ഉത്തരവാദിത്തപ്പെടുത്താൻ നയരൂപീകരണക്കാർ ശ്രമിക്കുന്നു. ഫേസ്ബുക്ക്, മൈക്രോസോഫ്റ്റ്, ഗൂഗിൾ, ആമസോൺ തുടങ്ങിയ കമ്പനികളും യുഎസ് പ്രതിരോധ വകുപ്പ് പോലുള്ള സർക്കാർ സ്ഥാപനങ്ങളും ഡീപ്പ്ഫേക്ക് കണ്ടെത്തൽ ഉപകരണങ്ങളുടെ വികസനത്തിൽ വലിയ തുകകൾ നിക്ഷേപിക്കുന്നു. സാംസ്കാരികമായി, സ്കൂളുകളിൽ മാധ്യമ സാക്ഷരത പഠിപ്പിക്കുകയും പൊതുവെ പൊതുജന അവബോധം വളർത്തുകയും ചെയ്യുക എന്നതാണ് ലക്ഷ്യം, ഉദാഹരണത്തിന്, തിരഞ്ഞെടുപ്പ് തീരുമാനങ്ങളെ വ്യാജവൽക്കരണവും തെറ്റായ വസ്തുതകളും സ്വാധീനിക്കാൻ കഴിയില്ല.
ഡീപ്പ്ഫേക്കുകൾ മാധ്യമങ്ങളിലുള്ള വിശ്വാസത്തെ എങ്ങനെ ബാധിക്കുന്നു?
മാധ്യമ ഉള്ളടക്കത്തിലെ അനുവദനീയമായ കൃത്രിമത്വത്തിനും ഡീപ്പ്ഫേക്കുകൾക്കും ഇടയിലുള്ള രേഖ മങ്ങിയിരിക്കുന്നു. മിതമായ ഫോട്ടോ കൃത്രിമത്വം വർഷങ്ങളായി സാധാരണവും അറിയപ്പെടുന്നതുമാണ്. എന്നിരുന്നാലും, ഡീപ്പ്ഫേക്കുകളുടെ പുതിയ മാനം വ്യാജ വാർത്തകളെ കൂടുതൽ അപകടകരമാക്കുന്നു. മാധ്യമ ഉള്ളടക്കത്തിന്റെ വിശ്വാസ്യതയെ ബാധിക്കുമെന്നും പൊതുവെ മാധ്യമങ്ങളിലുള്ള വിശ്വാസം കൂടുതൽ ഇല്ലാതാകുമെന്നും പ്രതീക്ഷിക്കാം. രാഷ്ട്രീയക്കാർ പോലുള്ള പൊതു വ്യക്തികളുടെ പ്രമുഖ പ്രസ്താവനകൾ പൊതുവെ സംശയാസ്പദമായിരിക്കും. മറുവശത്ത്, അവർ ലൈംഗികതയെക്കുറിച്ചോ വംശീയതയെക്കുറിച്ചോ പരാമർശിക്കുന്നതോ കള്ളം പറയുന്നതോ ചിത്രീകരിച്ചിട്ടുണ്ടെങ്കിൽ, അത് ഒരു ഡീപ്പ്ഫേക്കാണെന്ന് അവർക്ക് എല്ലായ്പ്പോഴും അവകാശപ്പെടാം. എന്നാൽ കൃത്രിമബുദ്ധിക്ക് ഇവിടെ കാര്യമായ സംഭാവന നൽകാനും മാധ്യമ കൃത്രിമത്വം കണ്ടെത്തുന്നതിൽ ഫോറൻസിക് വിദഗ്ധരെ പിന്തുണയ്ക്കാനും കഴിയും.
AI-യിൽ നിർമ്മിച്ച നഗ്നചിത്രങ്ങൾ ഉൾപ്പെട്ട ഒരു വിവാദത്തിനെതിരെ EU പ്രതികരിക്കുന്നു. യഥാർത്ഥ ആളുകളുടെ ലൈംഗിക ചിത്രങ്ങൾ അവരുടെ സമ്മതമില്ലാതെ സൃഷ്ടിക്കാൻ കഴിയുന്ന ആപ്ലിക്കേഷനുകൾ നിരോധിക്കണമെന്ന് അംഗരാജ്യങ്ങൾ ഇപ്പോൾ വാദിക്കുന്നു.
കൃത്രിമബുദ്ധി നിയമത്തിലെ ഭേദഗതികൾ സംബന്ധിച്ച് 27 EU രാജ്യങ്ങളിലെ അംബാസഡർമാർ വെള്ളിയാഴ്ച ഒരു പൊതു നിലപാട് അംഗീകരിച്ചു. യുഎസ് കോടീശ്വരൻ എലോൺ മസ്ക് സൃഷ്ടിച്ച ചാറ്റ്ബോട്ട് ഗ്രോക്ക് ഉപയോഗിച്ച് ഈ വർഷം ആദ്യം സ്ത്രീകളുടെയും കുട്ടികളുടെയും AI-യിൽ നിർമ്മിച്ച ലൈംഗിക ചിത്രങ്ങൾ വൻതോതിൽ സൃഷ്ടിച്ച് വിതരണം ചെയ്തതിനെ തുടർന്നാണിത്.
2024-ൽ മാത്രമാണ് യൂറോപ്യൻ യൂണിയൻ അംഗീകരിച്ച നിലവിലുള്ള AI നിയമത്തിലെ മാറ്റങ്ങളുടെ ഒരു പരമ്പരയുടെ ഭാഗമാകാനാണ് ആസൂത്രിത നിരോധനം ഉദ്ദേശിക്കുന്നത്. അതോടൊപ്പം, യൂറോപ്യൻ പാർലമെന്റ് കർശനമായ നിയന്ത്രണങ്ങൾ ചർച്ച ചെയ്യുന്നുണ്ട്. അത്തരം AI ആപ്ലിക്കേഷനുകൾ നിരോധിക്കുന്നതിനുള്ള വോട്ടെടുപ്പിൽ പ്രസക്തമായ പാർലമെന്ററി കമ്മിറ്റികൾ ബുധനാഴ്ച വോട്ട് ചെയ്യുമെന്ന് പ്രതീക്ഷിക്കുന്നു.
