• About
  • Contact
  • Privacy
  • Terms
  • Disclaimer
Monday, September 25, 2023
VALAIYUGAM | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கவிதைகள்
  • செய்திகள்
    • அரசியல்
    • ஊடகம்
    • விழிப்புணர்வு
    • பொருளாதாரம்
    • கல்வி
  • தளங்கள்
No Result
View All Result
VALAIYUGAM | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கவிதைகள்
  • செய்திகள்
    • அரசியல்
    • ஊடகம்
    • விழிப்புணர்வு
    • பொருளாதாரம்
    • கல்வி
  • தளங்கள்
No Result
View All Result
VALAIYUGAM | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு
No Result
View All Result
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கல்வி
  • கவிதைகள்
  • செய்திகள்
  • விழிப்புணர்வு
  • அரசியல்
  • ஊடகம்
  • தளங்கள்
  • பொருளாதாரம்
Home டெக்னாலஜி

Deepfake Technology – எதிர்கால சந்ததிகளின் வாழ்வை சீரழிக்குமா?

in டெக்னாலஜி
Deepfake Technology

Deepfake Technology

11
SHARES
101
VIEWS
FacebookTwitterPinterestWhatsapp

Deepfake Technology – டீப்ஃபேக் தொழில்நுட்பம் என்றால் என்ன?

பொருளடக்கம்

  • Deepfake Technology – டீப்ஃபேக் தொழில்நுட்பம் என்றால் என்ன?
      • அறிமுகம்
    • எதற்காக அவை?
    • Deepfake Technology இது வெறும் வீடியோக்களைப் பற்றியதா?
    • அவை எவ்வாறு தயாரிக்கப்படுகின்றன?
      • ஃபேஸ்-ஸ்வாப்
      • டீப்ஃபேக்குகளை உருவாக்குவதற்கான மற்றொரு வழி,
    • டீப்ஃபேக்குகளை உருவாக்குவது யார்?
    • உங்களுக்கு என்ன தொழில்நுட்பம் தேவை?
    • டீப்ஃபேக்கை எப்படி கண்டறிவது?
      • டீப்ஃபேக்குகளை கண்டரிய நிதி
    • டீப்ஃபேக்குகள் அழிவை ஏற்படுத்துமா?
    • அவர்கள் நம்பிக்கையை குலைப்பார்களா?
      • நீதிக்கு சவாலாகலாம்
    • என்ன தீர்வு?
    • டீப்ஃபேக்குகளால் தீங்கு மட்டும் தானா?

அறிமுகம்

பராக் ஒபாமா, டொனால்ட் டிரம்பை “முழுமையான டிப்ஷிட் (dipshit)” என்று அழைப்பதை நீங்கள் பார்த்திருக்கிறீர்களா? அல்லது,

மார்க் ஜுக்கர்பெர்க் “பில்லியன் கணக்கான மக்களின் திருடப்பட்ட தரவுகள் மொத்தமும் தம் கட்டுப்பாட்டில்” இருப்பதைப் பற்றி தற்பெருமை பேசுவதைப் பார்த்தீர்களா? அல்லது,

கேம் ஆஃப் த்ரோன்ஸின் மோசமான முடிவுக்கு ஜான் ஸ்னோ மன்னிப்புக் கேட்டதைக் கண்டீர்களா? ஆம் என்று பதிலளித்தால், நீங்கள் ஒரு டீப்ஃபேக்கைப் பார்த்திருக்கின்றீர்கள்.

புகைப்படங்களுக்கு ஃபோட்டோஷாப் என்றால் 21 ஆம் நூற்றாண்டில் புகைப்படம் மற்றும் வீடியோக்களுக்கு டீப்ஃபேக்.

டீப்ஃபேக்குகள் போலி நிகழ்வுகளின் புகைப்படங்களை உருவாக்க செயற்கை நுண்ணறிவின் (Artificial Intelligence) ஒரு வடிவத்தைப் பயன்படுத்துகின்றன, இதுவே டீப்ஃபேக் என்று அழைக்கப்படுகின்றது.

ஒரு அரசியல்வாதியின் வாயில் புதிய வார்த்தைகளை வரவைக்க வேண்டுமா? உங்களுக்குப் பிடித்த திரைப்படத்தில் நீங்களே நடிக்க வேண்டுமா? அல்லது தேர்ந்த கலைஞன் போல ஆட வேண்டுமா? அப்படியானால் உங்களுக்கு ஒரு டீப்ஃபேக்கை உருவாக்க வேண்டிய நேரம் இதுதான்.

எதற்காக அவை?

டீப்ஃபேக்குகள் அதிகமானவை ஆபாசமானவை தான். AI நிறுவனமான டீப்ட்ரேஸ் Deeptrace செப்டம்பர் 2019 இல் ஆன்லைனில் 15,000 டீப்ஃபேக் தொழில்நுட்ப (Deepfake Technology) வீடியோக்களைக் கண்டறிந்தது.

இது ஒன்பது மாதங்களில் இரட்டிப்பானது. இதில் அதிர்ச்சியூட்டும் செய்தி 96% சதவிகிதம் ஆபாசப் படங்கள் மேலும் அதில் 99% சதவிகிதம் பெண் பிரபலங்கள் முதல் ஆபாச நட்சத்திரங்கள் வரை மேப் செய்யப்பட்ட முகங்கள்.

புதிய நுட்பங்கள், திறமையற்றவர்களை கூட ஒரு சில புகைப்படங்களுடன் டீப்ஃபேக்குகளை உருவாக்க அனுமதிப்பதால், கீழ்த்தரமாக ஏதாவது செய்து பழிவாங்க வேண்டும் என்ற நோக்கத்தோடு இணையத்தில் உலவுபவர்களுக்கு இது ஒரு வரப்பிரசாதமாக அமைந்துள்ளது.

அது போன்ற கேவலமானவர்களின் கைகளில் இவை சிக்கும் போது டீப்ஃபேக் ஆபாசப்படங்கள் மற்றும் வீடியோக்கள் என இன்னும் அதிகமாக பரவ வாய்ப்புள்ளது.

பாஸ்டன் பல்கலைக்கழகத்தின் சட்டப் பேராசிரியரான டேனியல் சிட்ரான் கூறுகின்றார் “பெண்களுக்கு எதிராக, டீப்ஃபேக் தொழில்நுட்பம் ஆயுதமாக்கப்படுகிறது.” ஆபாசத்திற்கு அப்பால் ஏராளமான ஏமாற்று நடவடிக்கை, கிண்டலடிக்கவும் மற்றும் குறும்புத்தனங்களை உறுவாக்கவும் பயன்படுவதாக கூறுகின்றார்.

Deepfake Technology இது வெறும் வீடியோக்களைப் பற்றியதா?

இல்லை. டீப்ஃபேக் தொழில்நுட்பமானது நம்பிக்கைக்குரிய ஆனால் முற்றிலும் கற்பனையான புகைப்படங்களை புதிதாக உருவாக்க முடியும்.

லிங்க்ட்இன் LinkedIn மற்றும் ட்விட்டரில் Twitter சுயவிவரத்தைக் கொண்டிருந்த “மைஸி கின்ஸ்லி” என்ற ப்ளூம்பெர்க் பத்திரிகையாளர் ஒரு போலியான டீப்ஃபேக் தொழில்நுட்பம், மற்றொரு லிங்க்ட்இன் LinkedIn போலியான, “கேட்டி ஜோன்ஸ்”, சர்வதேச ஆய்வுகளுக்கான மையத்தில் பணிபுரிவதாகக் கூறினார், ஆனால் வெளிநாட்டு உளவு நடவடிக்கைக்காக உருவாக்கப்பட்ட டீப்ஃபேக் என்று தெரியவருகின்றது.

பப்ளிக் ஃபிகர்ஸ் என்று சொல்லக்கூடிய பிரபலமான நபர்களின் “குரல்கள்” அல்லது “குரல் குளோன் ஆடியோவையும் டீப்ஃபேக்கில் உருவாக்கலாம்.

கடந்த மார்ச் மாதம், ஃபிராடு ஒருவன் ஜெர்மன் தலைமை நிர்வாக அதிகாரியைப்போல ஜேர்மன் எரிசக்தி நிறுவனத்தின் UK துணை நிறுவனத்தின் தலைவரிடம் பேசி கிட்டத்தட்ட £200,000 ஐ ஹங்கேரிய வங்கிக் கணக்கில் மாற்றப்பட்டதும் இந்த டீப்ஃபேக் தொழில்நுட்பம் தான்.

இன்ஸூரன்ஸ் அதிகாரிகள், பேசியது ஜெர்மன் தலைமை அதிகாரி அல்ல, அவர்போல பேச வாட்ஸ்அப் வாய்ஸ் மெசேஜை பயன்படுத்தி டீப்ஃபேக் தொழில்நுட்பத்தால் (Deepfake Technology) உருவாக்கப்பட்ட குரல் என்று தெரிவிக்கின்றனர்.

அவை எவ்வாறு தயாரிக்கப்படுகின்றன?

பல்கலைக்கழக ஆராய்ச்சியாளர்கள் மற்றும் ஸ்பெஷல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் நீண்ட காலமாக வீடியோ மற்றும் புகைப்படங்களை கையாளுதல் மூலம் சாத்தியமான உட்சபட்ச எல்லைவரை சென்றனர்.

அந்த சமயத்தில் 2017 ஆம் ஆண்டில் ஒரு ரெடிட் Reddit பயனர் ஒருவர் ஒரு மருத்துவரின் ஆபாச வீடியோக்களை தனது தளத்தில் வெளியிட்டார். இதுவே முதல் டீப்ஃபேக் ஆகும்.

அந்த வீடியோவில் கேல் கடோட், டெய்லர் ஸ்விஃப்ட், ஸ்கார்லெட் ஜோஹன்சன் மற்றும் பல பிரபலங்களின் முகங்களை ஆபாச கலைஞர்களின் முகங்களில் மாற்றி வெளியிட்டார் என்பது குறிப்பிடத்தக்கது.

ஃபேஸ்-ஸ்வாப்

வீடியோவை உருவாக்க சில படிகள் தேவை. முதலில், Encoder எனப்படும் AI அல்காரிதம் மூலம் இரண்டு நபர்களின் ஆயிரக்கணக்கான ஃபேஸ் ஷாட்களை தயார் செய்கின்றனர்.

பின்னர் அந்த Encoder இரண்டு முகங்களுக்கிடையே உள்ள ஒற்றுமைகளைக் கண்டறிந்து கற்றுக்கொள்கிறது, மேலும் அதன் செயல்பாட்டில் ஆபாசமான அல்லது என்ன தேவையோ அதற்கு தேவைபடும் வீடியோக்களில் உள்ள படங்களை சுருக்கி, அவற்றில் பகிரப்பட்ட பொதுவான அம்சங்களுக்கு அவற்றைக் குறைக்கிறது.

டிகோடர் எனப்படும் இரண்டாவது AI அல்காரிதத்திற்கு சுருக்கப்பட்ட படங்களிலிருந்து முகங்களை மீட்டெடுக்க கற்றுக்கொடுக்கப்படுகிறது.

முகங்கள் வித்தியாசமாக இருப்பதால், முதல் நபரின் முகத்தை மீட்டெடுக்க ஒரு டிகோடரையும், இரண்டாவது நபரின் முகத்தை மீட்டெடுக்க மற்றொரு டிகோடருக்கும் பயிற்சி செய்யப்படுகின்றது.

ஃபேஸ் ஸ்வாப்பைச் செய்ய, குறியிடப்பட்ட படங்களை “தவறான” டிகோடரில் உட்படுத்தும். எடுத்துக்காட்டாக, நபர் A இன் முகத்தின் சுருக்கப்பட்ட படம், நபர் B மீது பயிற்சியளிக்கப்பட்ட குறிவிலக்கியில் (Decoder) இல் செலுத்தப்படுகிறது.

பின்னர் டிகோடர் A இன் வெளிப்பாடுகள் மற்றும் நோக்குநிலையுடன் நபரின் முகத்தை மறுகட்டமைக்கிறது. ஒரு உறுதியான வீடியோவிற்கு, இது போன்ற வீடியோ சட்டகம் செய்யப்பட வேண்டும்.

டீப்ஃபேக்குகளை உருவாக்குவதற்கான மற்றொரு வழி,

ஜெனரேட்டிவ் அட்வர்ஸரியல் நெட்வொர்க் Generative Adversarial Network, or GAN என்று அழைக்கப்படுகிறது.

ஒரு GAN இரண்டு செயற்கை நுண்ணறிவு (Artificial Intelligence) வழிமுறைகளை ஒன்றோடொன்று இணைக்கிறது.

ஜெனரேட்டர் எனப்படும் முதல் அல்காரிதம், சீரற்ற சப்தத்தின் மூலமாக அதை ஒரு படமாக மாற்றுகிறது.

இந்த செயற்கைப் படம் பின்னர் உண்மையான படங்களின் ஸ்ட்ரீமில் சேர்க்கப்படுகிறது.

பின்னர் Discriminator என அறியப்படும் இரண்டாவது வழிமுறையில் கொடுக்கப்படுகிறது.

முதலில், செயற்கைப் படங்கள் முகங்களைப் போல் இருக்காது. ஆனால் செயல்திறனுக்கான பின்னூட்டத்துடன் எண்ணற்ற முறை செயல்முறையை மீண்டும் செயல்படுத்தப்படும், மேலும் Discriminator மற்றும் ஜெனரேட்டர் இரண்டும் மேம்படுத்தும்.

போதுமான சுழற்சிகள் மற்றும் உருவகம் கொடுக்கப்பட்டால், ஜெனரேட்டர் முற்றிலும் உண்மையல்லாத பிரபலங்களின் தோற்றத்தை யதார்த்தமான முகங்களாக உருவாக்கத் தொடங்கும்.

டீப்ஃபேக்குகளை உருவாக்குவது யார்?

கல்வி மற்றும் தொழில்துறை ஆராய்ச்சியாளர்கள் முதல் அமெச்சூர் ஆர்வலர்கள், விஷுவல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் மற்றும் ஆபாச தயாரிப்பாளர்கள் வரை அனைவரும் இந்த டீப்ஃபேக் தொழில்நுட்பத்தை (Deepfake Technology) உருவாக்குகின்றனர்.

தீவிரவாத குழுக்களுக்கு எதிராக அவர்களின் இலக்குகளை சீர்குலைப்பதற்கும் அல்லது இலக்கு வைக்கப்பட்ட நபர்களுடன் தொடர்பு கொள்வதற்கும் அவர்களின் ஆன்லைன் உத்திகளின் ஒரு பகுதியாக அரசாங்கங்களும் இந்த டீப்ஃபேக் தொழில்நுட்ப(Deepfake Technology)த்தில் ஈடுபடலாம்.

உங்களுக்கு என்ன தொழில்நுட்பம் தேவை?

ஒரு சாதாரண கணினியில் ஒரு நல்ல டீப்ஃபேக்கை உருவாக்குவது கடினம்.

பெரும்பாலானவை சக்திவாய்ந்த கிராபிக்ஸ் கார்டுகளுடன் கூடிய உயர்நிலை டெஸ்க்டாப்களில் உருவாக்கப்படுகின்றன அல்லது க்ளவுட் கம்ப்யூட்டிங் சக்தியுடன் சிறப்பாக இருக்கும் கணிணிகளில் இவை உருவாக்கப்படுகின்றன.

இது செயலாக்க நேரத்தை, நாட்கள் மற்றும் வாரங்களிலிருந்து சில மணிநேரங்களுக்கு குறைக்கிறது.

ஆனால் மினுமினுப்பு மற்றும் பிற பார்வைக் குறைபாடுகளைக் சரி செய்து முடிக்க அதிக நிபுணத்துவம் தேவைப்படுகிறது.

டீப்ஃபேக்குகளை உருவாக்க மக்களுக்கு உதவ ஏராளமான கருவிகள் இப்போது கிடைக்கின்றன.

பல நிறுவனங்கள் உங்களுக்காக அவற்றை உருவாக்கி, கிளவுட்டில் அனைத்து செயலாக்கங்களையும் சேமிக்கும் வசதிகளும் வந்துவிட்டன.

இதற்காக Zao என்ற மொபைல் ஃபோன் செயலி கூட உள்ளது, இது டிவி மற்றும் திரைப்பட கதாபாத்திரங்களின் பட்டியலில் பயனர்கள் தங்கள் முகங்களைச் சேர்க்க உதவுகிறது.

டீப்ஃபேக்கை எப்படி கண்டறிவது?

தொழில்நுட்பம் மேம்படும் போது டீப்ஃபேக்கை கண்டறிவது கடினமாகிறது.

2018 ஆம் ஆண்டில், அமெரிக்க ஆராய்ச்சியாளர்கள் டீப்ஃபேக் முகங்கள் சாதாரணமாக சிமிட்டுவதில்லை என்பதைக் கண்டுபிடித்தனர்.

அது ஆச்சரியப்படும் விசயமில்லை தான். ஆம் பெரும்பாலான புகைப்படங்களில் மக்கள் தங்கள் கண்களைத் திறந்து தான் வைத்துள்ளனர், எனவே அல்காரிதம்கள் உண்மையில் சிமிட்டுவதைப் பற்றி அறியவே இல்லை.

முதலில், இந்த மாற்றம் டீப்ஃபேக்குகளை கண்டறியும் பிரச்சனைக்கான சில்வர் புல்லட் போல் தோன்றியது.

ஆனால் ஆராய்ச்சி வெளியிடப்பட்ட உடனேயே, டீப்ஃபேக்குகள் கண் சிமிட்டும் வகையில் செயல்படுத்தப்பட துவங்கின. விளையாட்டின் இயல்பு இதுதான்: ஒரு பலவீனம் வெளிப்பட்டவுடன், அது சரி செய்யப்படுகிறது.

மோசமான டீப்ஃபேக்குகளைக் கண்டறிவது எளிது.

உதடு ஒத்திசைவு மோசமாக இருக்கலாம் அல்லது ஸ்கின் டோன் தொனியில் தடுமாறும். இடம்மாற்றப்பட்ட முகங்களின் விளிம்புகளைச் சுற்றி ஒளிரும். மற்றும் முடி போன்ற நுண்ணிய விவரங்கள், குறிப்பாக டீப்ஃபேக்குகள் நன்றாக வழங்குவது கடினம், குறிப்பாக விளிம்புகளில் இழைகள் தெரியும்.

சீரற்ற வெளிச்சம் மற்றும் கருவிழியில் பிரதிபலிப்புகள் போன்ற விசித்திரமான ஒளி விளைவுகள், மோசமாகத் தரப்பட்ட நகைகள் மற்றும் பற்கள் ஆகியவையும் டீப்ஃபேக்குகளை கண்டரிய வாய்ப்பாக இருக்கலாம்.

டீப்ஃபேக்குகளை கண்டரிய நிதி

Deepfake Technologyஅரசாங்கங்கள், பல்கலைக்கழகங்கள் மற்றும் தொழில்நுட்ப நிறுவனங்கள் அனைத்தும் Deepfakeகளை கண்டறிவதற்கான ஆராய்ச்சிக்கு நிதியளிக்கின்றன.

கடந்த மாதம், மைக்ரோசாப்ட், பேஸ்புக் மற்றும் அமேசான் ஆதரவுடன் முதல் டீப்ஃபேக் கண்டறிதல் சவால் தொடங்கியது. டீப்ஃபேக் கண்டறிதல் விளையாட்டில் மேலாதிக்கத்திற்காக போட்டியிடும் உலகெங்கிலும் உள்ள ஆராய்ச்சி குழுக்கள் இதில் பங்கு கொண்டுள்ளன.

2020 அமெரிக்கத் தேர்தலுக்கு முன்னதாக, ஒருவர் “அவர் உண்மையில் சொல்லாத வார்த்தைகளைச் சொன்னார்” என்று பார்வையாளர்களை தவறாக வழிநடத்தும் ஆழமான வீடியோக்களை பேஸ்புக் கடந்த வாரம் தடை செய்தது.

எவ்வாறாயினும், AI ஐப் பயன்படுத்தி உருவாக்கப்பட்ட தவறான தகவல்களை மேலோட்டமாக மட்டுமே கண்டரியப்பட்டு வருகின்றது. இன்னும் பல டீப்ஃபேக்குகள் இயங்குதளத்தில் அனுமதிக்கப்பட்டுதான் வருகின்றது.

டீப்ஃபேக்குகள் அழிவை ஏற்படுத்துமா?

இனிவரும் காலங்களில் துன்புறுத்தும், பயமுறுத்தும், இழிவுபடுத்தும், குறைமதிப்பிற்கு உட்படுத்தும் மற்றும் சீர்குலைக்கும் டீப்ஃபேக்குகளை நாம் எதிர்பார்க்கலாம்.

ஆனால் டீப்ஃபேக்குகள் முக்கிய சர்வதேச சம்பவங்களைத் தூண்டுமா? என்றால் தற்போது இந்த நிலை ஏற்படும் சாதகம் குறைவாகவே உள்ளது.

ஒரு டீப்ஃபேக்கான உலகத் தலைவர் பெரிய சிவப்பு பொத்தானை அழுத்தினால் அது ஆர்மகெடானை (பேரழிவை) ஏற்படுத்தக் கூடாது.

எல்லையில் திரளும் துருப்புக்களின் ஆழமான செயற்கைக்கோள் படங்கள் அதிக சிக்கலை ஏற்படுத்தாது. ஏனென்றால் பெரும்பாலான நாடுகள் தங்களுக்கென நம்பகமான பாதுகாப்பு வலையங்களைக் கொண்டுள்ளன.

இருப்பினும், Fun வீடியோக்களை உருவாக்குவதற்கு இன்னும் போதுமான இடம் உள்ளது. கடந்த ஆண்டு, எலோன் மஸ்க் ஒரு நேரடி இணைய நிகழ்ச்சியில் புகைபிடித்த நிகழ்வு காரணமாக டெஸ்லா பங்கு சரிந்தது.

அதே போல் டிசம்பரில், டொனால்ட் டிரம்ப் நேட்டோ கூட்டத்தில் இருந்து வீட்டிற்கு முன்னதாகவே பறந்து சென்றார், மற்ற உலகத் தலைவர்கள் அவரை கேலி செய்யும் உண்மையான காட்சிகள் வெளிவந்தன.

இது போன்ற நம்பத்தகுந்த டீப்ஃபேக்குகள் பங்கு விலைகளை மாற்றுமா? வாக்காளர்களை பாதிக்குமா? மற்றும் மத பதற்றத்தைத் தூண்டுமா? என்பதெல்லாம் போகப்போகத்தான் தெரியும்.  இது பாதுகாப்பான பந்தயம் போல் தெரியவில்லை.

அவர்கள் நம்பிக்கையை குலைப்பார்களா?

Deepfake Technologyடீப்ஃபேக்கின் நயவஞ்சகமான தாக்கம் ஊடகங்கள் மற்றும் செய்திகளின் மீது நம்பிக்கையற்ற சமூகத்தை உருவாக்கும் என்பதில் சந்தேகமில்லை.

மேலும் மக்கள் உண்மையைப் பொய்யிலிருந்து வேறுபடுத்தி பார்க்க முடியாது அல்லது அதனை பற்றி அவர்கள் கவலை படுவதில்லை எனும் நிலையை தான் ஏற்படுத்தும் என்பதில் ஐயமில்லை.

மேலும் நம்பிக்கை சிதைக்கப்படும்போது, குறிப்பிட்ட நிகழ்வுகளைப் பற்றிய சந்தேகங்களை எழுப்புவது எளிதாகிவிடும்.

கடந்த ஆண்டு, கேமரூனின் தகவல் தொடர்பு அமைச்சர், கேமரூனிய நாட்டின் ராணுவ வீரர்கள் பொதுமக்களை தூக்கிலிடுவதைக் காட்டும் காணொளியை அம்னெஸ்டி இன்டர்நேஷனல் வெளியிட்டதை போலிச் செய்தி என்று அந்த அமைச்சர் நிராகரித்தார்.

பதிவு செய்யப்பட்ட உரையாடலில் பெண்களின் பிறப்புறுப்பைப் பற்றிப் தவறாக பேசியதை ஒப்புக்கொண்ட டொனால்ட் டிரம்ப், பின்னர் டேப் உண்மையானது அல்ல என்று மறுத்துப்பேசினார்.

நியூகேஸ்டில் பல்கலைக்கழகத்தின் (Newcastle University) இணையச் சட்ட (Internet Law)த்தின் முன்னணி நிபுணரான பேராசிரியர் லிலியன் எட்வர்ட்ஸ் (Prof Lilian Edwards) கூறுகையில், “ஒரு போலியான விசயம் யதார்த்தமாக (உண்மை என) பார்க்கப்படும்போது, நம்பத்தகுந்த உண்மையான யதார்த்தம் மறுக்கக்கூடியதாக மாறுகிறது.” என்று சொல்கின்றார்.

நீதிக்கு சவாலாகலாம்

Deepfake Technology
Deepfake Technology

தொழில்நுட்பம் இலகுவாக அணுகக்கூடியதாக மாறும்போது, ​​டீப்ஃபேக்குகள் நீதிமன்றங்களுக்கு சிக்கலைக் அதிகப்படுத்தலாம்,

குறிப்பாக குழந்தைகளின் பாதுகாப்பு மற்றும் வேலைவாய்ப்பு தொடர்பான நீதி விசாரணைகளில் போலி நிகழ்வுகள் ஆதாரமாக காட்டப்படலாம்.

அவை தனிப்பட்ட பாதுகாப்பு அபாயத்தையும் ஏற்படுத்துகின்றன: டீப்ஃபேக்குகள் பயோமெட்ரிக் தரவைப் பிரதிபலிக்கும், மேலும் முகம், குரல், நரம்பு அல்லது நடை அங்கீகாரத்தை நம்பியிருக்கும் அமைப்புகளை ஏமாற்றலாம்.

மோசடிக்கான சாத்தியம் தெளிவாக உள்ளது. தெரியாத ஒருவருக்கு ஃபோன் செய்து, அவர்களுக்கு தெரியாத வங்கிக் கணக்கிற்கு பணத்தை மாற்ற வாய்ப்பில்லை.

ஆனால் உங்கள் “அம்மா” அல்லது “சகோதரி” வாட்ஸ்அப்பில் வீடியோ அழைப்பை அமைத்து அதே கோரிக்கையை செய்தால் என்ன செய்வது?

என்ன தீர்வு?

இது வேடிக்கையான, AI பதிலாக இருக்கலாம். செயற்கை நுண்ணறிவு (AI) ஏற்கனவே போலி வீடியோக்களைக் கண்டறிய உதவுகிறது என்பது உண்மை தான். ஆனால் தற்போதுள்ள பல கண்டறிதல் முறை கடுமையான பலவீனத்தைக் கொண்டுள்ளன.

அவை பிரபலங்களுக்குச் சிறப்பாகச் செயல்படுகின்றன, ஏனெனில் அவர்களின் பல மணிநேர வீடியோ காட்சிகள் இலவசமாகக் கிடைக்கும் அப்படி கிடைக்கும் காட்சிகளை கொண்டு AI க்கு பயிற்றுவிக்க முடியும்.

தொழில்நுட்ப நிறுவனங்கள் டீப்ஃபேக்குகளை கண்டறியும் முறைகளில் நிறைய மாற்றாங்கள் தேவை.

டீப்ஃபேக்குகள் தோன்றும் போதெல்லாம் கோடிட்டு காட்டும் வண்ணம் தற்போது செயல்பட்டாலும் அதில் இன்னும் மெறுகேற்றப்பட வேண்டும். மற்றொரு மூலோபாயம் ஊடகங்கள் தங்கள் ஆதாரத்தில் அதிக கவனம் செலுத்த வேண்டும்.

டிஜிட்டல் வாட்டர்மார்க்குகள் இல்லாமல் எந்த வீடியோவையும் யாரும் பரப்ப முடியாதவாறு செயல்படுத்தப்பட வேண்டும்.

ஆனால் ஒரு பிளாக்செயின் ஆன்லைன் லெட்ஜர் அமைப்பு வீடியோக்கள், படங்கள் மற்றும் ஆடியோவின் டேம்பர்-ப்ரூஃப் பதிவை வைத்திருக்க முடியும், எனவே அவற்றின் தோற்றம் மற்றும் ஏதேனும் கையாளுதல்களை எப்போதும் சரிபார்க்க முடியும்.

டீப்ஃபேக்குகளால் தீங்கு மட்டும் தானா?

இல்லவே இல்லை. பல பொழுதுபோக்கிற்காகவும் மற்றும் சில வேளைகளில் பயனுள்ளதாகவும் இருக்கும்.

குரல்-குளோனிங் டீப்ஃபேக்குகள் நோயால் மக்கள் இழக்கும் அவர்களின் குரல்களை மீட்டெடுக்க முடியும்.

டீப்ஃபேக் வீடியோக்கள் காட்சியகங்கள் மற்றும் அருங்காட்சியகங்களை உயிர்ப்பிக்கும்.

புளோரிடாவில், டாலி அருங்காட்சியகத்தில் சர்ரியலிஸ்ட் ஓவியர் தனது கலையை அறிமுகப்படுத்தி பார்வையாளர்களுடன் செல்ஃபி எடுத்துக்கொண்ட நிகழ்வுகளும் உண்டு.

பொழுதுபோக்குத் துறையைப் பொறுத்தவரை, வெளிநாட்டு மொழிப் படங்களின் டப்பிங்கை மேம்படுத்தவும், மேலும் சர்ச்சைக்குரிய வகையில், இறந்த நடிகர்களை உயிர்ப்பிக்கவும், இந்த தொழில்நுட்பத்தைப் பயன்படுத்தலாம்.

எடுத்துக்காட்டாக, மறைந்த ஜேம்ஸ் டீன், வியட்நாம் போர்த் திரைப்படமான ஃபைண்டிங் ஜாக்கில் நடிக்க உள்ளார்.

அதே போல் நமது தமிழ்நாட்டில் மறைந்த நடிகர் விவேக் மீண்டும் திரைக்கு வருகின்றார் என்பது குறிப்பிடத்தக்கது.

-அன்புடன்
முத்துப்பேட்டை அலீம்

எமது முந்தைய பதிவை படிக்க… Is Uniform Civil Code good for India? பொது சிவில் சட்டம் இந்தியாவிற்கு நல்லதா?

Tags: deepfakedeepfake technology
Share4Tweet3Pin1Send
Previous Post

Is Uniform Civil Code good for India? பொது சிவில் சட்டம் இந்தியாவிற்கு நல்லதா?

Next Post

News18 – நியூஸ்18 சேனல் க(ள்)ள ஆய்வு உண்மை என்ன?

RelatedPosts

amazon
டெக்னாலஜி

Amazon – அமேஷானில் சிறப்பான 3 – கீபேட் மொபைல்கள்

undraw
டெக்னாலஜி

unDraw பயனுள்ள ஓப்பன் சோர்ஸ் வெப்சைட் (unDraw open source website)

AI Technology
டெக்னாலஜி

AI Technology -யை பயன்படுத்தி பொதுமக்கள் எப்படி ஏமாற்றப்படுகிறார்கள்?

Comments 2

  1. Avatar of Malik Malik says:
    2 months ago

    This article is very interesting…

    Reply
    • Avatar of வலையுகம் முஹம்மது அலீம் வலையுகம் முஹம்மது அலீம் says:
      2 months ago

      நன்றி

      Reply

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

அதிகம் படிக்கப்பட்டவை

  • Trending
  • Comments
  • Latest
Mental Health Awareness for Child

Mental Health Awareness for Child | குழந்தை மனநல விழிப்புணர்வு

Dishonest Indian Journalism

Dishonest Indian Journalism | நேர்மையற்ற ஊடகம்

Free ai Certificate Course1

Free AI Certificate Course | இலவசமாக AI படிக்க வேண்டுமா?

Modi Failed

Modi Failed | 9 ஆண்டு மோடி அரசின் மோசடிகள் – பகுதி 1

கூட்டு மனசாட்சி

கூட்டு மனசாட்சி பெயரில் கொல்லப்பட்ட அப்சல் குரு

சமுதாயப் பிளவு

சமுதாயப் பிளவு தேவையா?

Deepfake Technology

Deepfake Technology – எதிர்கால சந்ததிகளின் வாழ்வை சீரழிக்குமா?

God's canon

God’s canon – இறைவனின் நியதி..!

Modi Failed

Modi Failed | 9 ஆண்டு மோடி அரசின் மோசடிகள் – பகுதி 1

Dishonest Indian Journalism

Dishonest Indian Journalism | நேர்மையற்ற ஊடகம்

Mental Health Awareness for Child

Mental Health Awareness for Child | குழந்தை மனநல விழிப்புணர்வு

Children Mental Health Questions

Children Mental Health Questions | குழந்தைகள் மனநலம் சார்ந்த கேள்விகள்

எங்களுடன் இணைந்திருங்கள்

  • 99 Subscribers
  • 647 Followers

பிரபலமானவை

  • Mental Health Awareness for Child

    Mental Health Awareness for Child | குழந்தை மனநல விழிப்புணர்வு

    20 shares
    Share 7 Tweet 5
  • Dishonest Indian Journalism | நேர்மையற்ற ஊடகம்

    14 shares
    Share 6 Tweet 4
  • Free AI Certificate Course | இலவசமாக AI படிக்க வேண்டுமா?

    13 shares
    Share 5 Tweet 3
  • Modi Failed | 9 ஆண்டு மோடி அரசின் மோசடிகள் – பகுதி 1

    13 shares
    Share 5 Tweet 3
  • AI Technology -யை பயன்படுத்தி பொதுமக்கள் எப்படி ஏமாற்றப்படுகிறார்கள்?

    12 shares
    Share 5 Tweet 3
Facebook Twitter Instagram Youtube Reddit Tumblr Pinterest Whatsapp

என்னைப்பற்றி

VALAIYUGAM | அரசியல், விழிப்புணர்வு, தொழில்நுட்பம், செயற்கை நுண்ணறிவு

நான் முஹம்மது அலீம், சமூகத்தின் அவலங்களையும், பிரச்சினைகளையும் களையவேண்டுமென்ற நோக்கில் செயலாற்றக்கூடியவன். சமூகத்தின் மத்தியில் விழிப்புணர்வை ஏற்படுத்தி சமூகத்தின் முன்னேற்றத்திற்காகவும், சமூகத்தின் குரலாகவும் ஒலிப்பதே இத்தளத்தின் நோக்கமாக கொண்டு எழுதுகின்றேன். இன்றில்லாவிட்டாலும் என்றாவது ஒருநாள் என் சமூகம் முன்னேறும், வெற்றி பெறும். இன்ஷா அல்லாஹ்...

தலைப்புக்கள்

  • அரசியல் (20)
  • இஸ்லாம் (11)
  • ஊடகம் (3)
  • கல்வி (6)
  • கவிதைகள் (21)
  • டெக்னாலஜி (9)
  • தமுமுக (6)
  • தளங்கள் (6)
  • தொடர்கள் (3)
  • பொருளாதாரம் (5)
  • ரெவின்யூ (4)
  • விழிப்புணர்வு (6)

Translate to Your Language

புதிய செய்திகள்

Modi Failed

Modi Failed | 9 ஆண்டு மோடி அரசின் மோசடிகள் – பகுதி 1

Dishonest Indian Journalism

Dishonest Indian Journalism | நேர்மையற்ற ஊடகம்

Mental Health Awareness for Child

Mental Health Awareness for Child | குழந்தை மனநல விழிப்புணர்வு

Copyrights © 2023-2025 VALAIYUGAM - All Rights Reserved by VALAIYUGAM.COM

No Result
View All Result
  • முகப்பு
  • இஸ்லாம்
  • டெக்னாலஜி
  • கல்வி
  • கவிதைகள்
  • செய்திகள்
  • விழிப்புணர்வு
  • அரசியல்
  • ஊடகம்
  • தளங்கள்
  • பொருளாதாரம்

Copyrights © 2023-2025 VALAIYUGAM - All Rights Reserved by VALAIYUGAM.COM