சமீர் ஹிந்துஜா & ஜஸ்டின் டபிள்யூ. பட்சின்
2020 ஆம் ஆண்டு கோடையில், 50 வயதான பெண் ஒருவர் தனது மகளின் சகாக்கள் சிலரை இலக்கிடுவதற்காக தொழில்நுட்பம் ஒன்றை பயன்படுத்தினார். இதில் மிகவும் சுவாரஸ்யமான திருப்பம் என்பது, முதலில் சண்டையைத் தொடங்குபவர் மற்றும் இலக்கிடப்பட்ட நபர்களுக்கு இடையே இருக்கும் வயது வித்தியாசம் அல்ல, நிர்வாணமாக இருக்கும், சிறார் குடிப்பழக்கத்தில் ஈடுபடும் அல்லது புகைக்கும் பொருட்களைப் பயன்படுத்தும் வகையில் ஆன்லைனில் காணப்படும் படங்களை அவரது மகள் முன்பு கலந்து கொண்ட ஒரு சியர்லீடிங் கிளப்பைச் சேர்ந்த மற்ற பெண்களைப் போல தோற்றமளிக்கும் வகையில் மாற்றுவதற்கு மென்பொருள் பயன்படுத்தப்பட்டதே ஆகும். இந்த "deepfakes" அடையாளம் காண முடியாத அலைபேசி எண்களில் இருந்து உரை மெசேஜ் மூலம் சிறுமிகளுக்கு அனுப்பப்பட்டு பரப்பப்பட்டன. இது போன்ற சம்பவங்கள் புதிய ட்ரெண்டுக்கான எடுத்துக்காட்டு என்பதை பெற்றோர்கள் அறிந்திருக்க வேண்டும்.
"deepfake" ("ஆழமான கற்றல் + போலி") என்ற சொல், ஆன்லைன் பயனர்களின் சமூகங்கள் பிரபலங்களின் போலியான ஆபாசப் படங்களை ஒருவருக்கொருவர் பகிரத் தொடங்கியபோது தோன்றியதாகத் தெரிகிறது. இவற்றை உருவாக்க, நம்பமுடியாத அளவிற்கு யதார்த்தமாகத் தோற்றமளிக்கும் வகையில் புனையப்பட்ட உள்ளடக்கத்தை (எ.கா., படங்கள் மற்றும் காணொளிகள்) உருவாக்கிட செயற்கை நுண்ணறிவு மென்பொருள் பயன்படுத்தப்படுகிறது. கணிசமான அளவு உள்ளடக்கத்தை (எ.கா., ஒரு நபரின் பல மணிநேர காணொளி, ஒரு நபரின் ஆயிரக்கணக்கான படங்கள்) எடுத்து, அவற்றுள் முக்கிய முக அம்சங்கள் மற்றும் உடல் பாவனை/நிலை ஆகியவற்றின் மீது முக்கியமாக கவனம் செலுத்தி பகுப்பாய்வு செய்ய கணினி சக்தியைப் பயன்படுத்தி கற்றல் மாதிரிகள் உருவாக்கப்படுகின்றன.
அடுத்து, இந்தக் கற்றல் மாதிரியானது, ஒருவர் மாற்றியமைக்க அல்லது உருவாக்க விரும்பும் படங்கள்/ஃபிரேம்களுக்கு அல்காரிதம் முறையில் பயன்படுத்தப்படுகிறது (எ.கா., அசல் உள்ளடக்கத்தின் மீது (அல்லது டப்பிங் செய்யப்பட்ட ஒலிகளின் மீது) உதடு அசைவுகளை மிகைப்படுத்தி ஒரு நபர் உண்மையில் சொல்லாத ஒன்றைச் சொல்வது போல் தோன்றச் செய்வது). கூடுதல் நுட்பங்களான கலை நயங்களைச் சேர்ப்பது (சாதாரணமாகவோ தற்செயலாகவோ தோன்றும் "தடுமாற்றம்" போன்றவை) அல்லது எதார்த்தத்தை மேம்படுத்த மறைத்தல்/திருத்துதல் போன்றவையும் பயன்படுத்தப்படுகின்றன, மேலும் இதன் விளைவாக கிடைக்கும் தயாரிப்புகள் வியக்கத்தக்க வகையில் நம்பிக்கையூட்டுகின்றன. Deepfake எடுத்துக்காட்டுகளை நீங்கள் இணையத்தில் தேடிப் பார்த்தால், அவை எவ்வளவு உண்மையானதாக தோன்றுகின்றன என்று நீங்கள் ஆச்சரியப்படுவீர்கள். ஏதேனும் deepfake இல் இருந்து உங்கள் பிள்ளையைப் பாதுகாக்கவும், போலியிலிருந்து நிஜத்தைப் பிரித்தறிய அவர்களை நீங்கள் சித்தப்படுத்த முற்படுகையில், நீங்கள் தெரிந்து கொள்ள வேண்டிய சில முக்கியமான விஷயங்கள் கீழே உள்ளன.
தொழில்நுட்பம் வளர்ச்சியடைவதால் deepfakes நிஜத்தைப் போலவே தோற்றமளிக்கும் அதே வேளையில் இவற்றைக் கண்டறிவது என்பது படம் அல்லது காணொளி உள்ளடக்கத்தில் (எடுத்துக்காட்டாக, இயல்பான முறையில் இமைக்காத கண்கள்) சில விஷயங்களை உன்னிப்பாக பார்ப்பதன் மூலம் பெரும்பாலும் மேற்கொள்ளப்படுகிறது. உள்ளடக்கத்தைப் பெரிதாக்கி, வாய், கழுத்து/காலர் அல்லது மார்பைச் சுற்றி இயற்கைக்கு மாறான அல்லது மங்கலான ஓரங்கள் ஏதேனும் இருக்கின்றனவா என பார்ப்பது இவற்றைக் கண்டறிவதற்கு மிகவும் உதவியாக இருக்கலாம். அசல் உள்ளடக்கம் மற்றும் மிகைப்படுத்தப்பட்ட உள்ளடக்கம் ஆகியவற்றுக்கு இடையே தவறான சீரமைப்புகள் மற்றும் பொருத்தமின்மைகள் பெரும்பாலும் தென்படக்கூடும்.
காணொளிகளில், ஒருவர் கிளிப் வேகத்தைக் குறைத்து, சாத்தியமான உதடு ஒத்திசைவின்மை அல்லது நடுக்கம் போன்ற காட்சி முரண்பாடுகளைக் கண்டுபிடிக்கலாம். மேலும், சொல்லப்படுவதற்கு ஏற்ற உணர்ச்சிகளை காட்சியில் தோன்றுபவர் வெளிப்படுத்தாமல் இருப்பது, வார்த்தையை தவறாக உச்சரிப்பதைப் போல தோன்றுவது, அல்லது வேறு ஏதேனும் வித்தியாசமான முரண்பாடுகள் தென்படும் தருணங்களில் கவனம் செலுத்துங்கள். இறுதியாக, படங்களில் ரிவர்ஸ் இமேஜ் தேடல்களை (அல்லது காணொளியின் ஸ்கிரீன்ஷாட் தேடல்களை) இயக்குவது அவை மாற்றியமைக்கப்படுவதற்கு முன்பான அசல் காணொளியை உங்களுக்குச் சுட்டிக்காட்டலாம். அப்போது, எது மாற்றியமைக்கப்பட்டுள்ளது என்பதைத் தீர்மானிக்க இரண்டு உள்ளடக்கத்தையும் கவனமாக ஒப்பிட்டுப் பாருங்கள். இதன் முக்கிய அம்சம் என்னவென்றால், உங்கள் உணர்வுகள் சொல்வதை நீங்கள் நம்ப வேண்டும்; உள்ளடக்கத்தை மிகக் கவனமாகப் பார்ப்பதற்கும் கேட்பதற்குமான வேகத்தை நாம் குறைக்கும் போது, பொதுவாக ஏதோவொன்று தவறாக இருப்பதை நம்மால் உணர முடியும்.
பதின்மவயதினரிடம் அவர்கள் ஆன்லைனில் பதிவிடும் அனைத்தும் deepfakeஐ உருவாக்கப் பயன்படுத்தப்படலாம் என்பதை அவர்களுக்கு நினைவூட்டுவது முக்கியம். அவர்களின் சமூக ஊடகக் கணக்குகளில், மற்றவர்கள் அவர்களின் அனுமதியின்றி அணுகக்கூடிய மற்றும் மாற்றியமைக்கக்கூடிய உள்ளடக்க நூலகத்தை அவர்கள் உருவாக்கியிருக்கலாம். அவர்களின் முகம், பாவனைகள், குரல் மற்றும் பிற குணாதிசயங்கள் தனித்தனியாக பொருத்தப்பட்டு, பின்னர் ஒருவரின் ஒத்த தோற்றத்தில் - ஒருவரின் நற்பெயருக்கு தீங்கு விளைவிக்கும் நடத்தையில் ஈடுபட்டிருக்கும் யாரேனும் ஒருவரால் மாற்றி மேலடுக்காக அமைக்கப்படுகிறது. இது சம்பந்தமாக உரையாடலை எளிதாக்க, சரி-தவறு என்றில்லாத, புரிந்துகொள்ளும் வகையிலான அவர்களிடம் கேட்கக்கூடிய சில கேள்விகள் இதோ இங்கே:
Deepfakes என்பன, பதின்மவயதினர் தங்களின் உணர்வு, மன ஆரோக்கியம் மற்றும் நற்பெயருக்கு இவை ஏற்படுத்தக்கூடிய சேதத்தை கருத்தில் கொள்ளும்போது, நல்வாழ்வை சீர்குலைக்கும் சாத்தியத்தைக் கொண்டுள்ளன. செவி வழியான, காட்சி வழியான மற்றும் தற்காலிக முரண்பாடுகள் மனிதக் கண்ணால் கவனிக்கப்படாமல் போகலாம் என்றாலும், படம் அல்லது காணொளி உள்ளடக்கத்தில் உள்ள சீரற்ற தன்மையைக் கண்டறிந்து கொடியிட மென்பொருள் துல்லியமாக்கப்பட்டு வருகிறது. இந்தத் தொழில்நுட்பங்கள் தொடர்ந்து மேம்படுவதால், பெற்றோர்கள், பராமரிப்பாளர்கள் மற்றும் இளம் நபர்களுக்கு சேவை செய்யும் பெரியவர்கள் deepfakes உடைய யதார்த்தத்தைப் பற்றிய அறிதலை ஏற்படுத்த வேண்டும், மேலும் அவற்றின் உருவாக்கம் மற்றும் விநியோகத்தின் விளைவுகளைத் தடுக்க முயற்சி எடுக்க வேண்டும். அதே சமயம், உங்கள் பதின்மவயதினர் ஏதேனும் deepfake சூழ்நிலையில் (மற்றும், நிச்சயமாக, அவர்கள் வேறு எவ்விதமான ஆன்லைன் தீங்கிலும்) மாட்டிக் கொண்டால், அதிலிருந்து விடுபடுவதற்கான வழியைக் கண்டறிய உதவுவதற்கு நீங்கள் எப்போதும் இருக்கிறீர்கள் என்பதை அவர்களுக்குத் தொடர்ந்து நினைவூட்டுங்கள்.