Home Economy சாட்போட்கள், டீப்ஃபேக்ஸ் மற்றும் குரல் குளோன்கள்: விற்பனைக்கு AI ஏமாற்றுதல்

சாட்போட்கள், டீப்ஃபேக்ஸ் மற்றும் குரல் குளோன்கள்: விற்பனைக்கு AI ஏமாற்றுதல்

உருவகப்படுத்துதல் கோட்பாடு பற்றி நீங்கள் கேள்விப்பட்டிருக்கலாம், எதுவும் உண்மையானது அல்ல, நாங்கள் அனைவரும் ஒரு பெரிய கணினி நிரலின் ஒரு பகுதியாக இருக்கிறோம். இந்த வலைப்பதிவு இடுகையின் நீளத்திற்கு இந்த கருத்து பொய்யானது என்று கருதலாம். ஆயினும்கூட, எதிர்காலத்திற்கு நாம் செல்லலாம், அதில் நாம் காணும், கேட்பது மற்றும் படிக்கும் விஷயங்களில் கணிசமான பகுதி கணினி உருவாக்கிய உருவகப்படுத்துதல் ஆகும். நாங்கள் எப்போதுமே அதை இங்கே FTC இல் உண்மையாக வைத்திருக்கிறோம், ஆனால் நம்மில் எவரும் போலி இருந்து உண்மையானதைச் சொல்லும்போது என்ன நடக்கும்?

A சமீபத்திய வலைப்பதிவு இடுகைபுதிய தயாரிப்புகள் மற்றும் சேவைகளுக்கான ஏமாற்றும் விற்பனை புள்ளியாக “AI” என்ற சொல் எவ்வாறு பயன்படுத்தப்படலாம் என்பதை நாங்கள் விவாதித்தோம். அதை அழைப்போம் போலி அய் சிக்கல். இன்றைய தலைப்பு, ஏமாற்றத்தை உருவாக்க அல்லது பரப்ப திரைக்குப் பின்னால் AI ஐப் பயன்படுத்துவதாகும். இதை அழைப்போம் AI போலி சிக்கல். பிந்தையது ஒரு ஆழமான, வளர்ந்து வரும் அச்சுறுத்தலாகும், இது டிஜிட்டல் சுற்றுச்சூழல் அமைப்பில் உள்ள நிறுவனங்களுக்கு தீர்வு காண வேண்டும். இப்போது.

ஒரு சாதனத்தில் விஷயங்களைப் பார்க்க நம்மில் பெரும்பாலோர் நிறைய நேரம் செலவிடுகிறோம். “செயற்கை ஊடகங்களை” உருவாக்கும் அல்லது உள்ளடக்கத்தை உருவாக்கும் AI கருவிகளுக்கு நன்றி, நாம் பார்ப்பதில் வளர்ந்து வரும் சதவீதம் உண்மையானதல்ல, மேலும் வித்தியாசத்தை சொல்வது மிகவும் கடினம். இந்த AI கருவிகள் மிகவும் முன்னேறி வருவதைப் போலவே, அவை அணுகவும் பயன்படுத்தவும் எளிதாகி வருகின்றன. இந்த கருவிகளில் சில நன்மை பயக்கும் பயன்பாடுகளைக் கொண்டிருக்கலாம், ஆனால் மோசடி செய்பவர்களும் அவற்றைப் பயன்படுத்தலாம்.

உருவாக்கும் AI மற்றும் செயற்கை ஊடகங்கள் குறிக்க பயன்படுத்தப்படும் பேச்சுவழக்கு சொற்கள் சாட்போட்கள் பெரிய மொழி மாதிரிகள் மற்றும் உருவாக்கும் மென்பொருள் போன்ற மனித செயல்பாடுகளை உருவகப்படுத்தும் தொழில்நுட்பத்திற்கு உருவாக்கப்பட்டது டீப்ஃபேக் வீடியோக்கள் மற்றும் குரல் குளோன்கள். மோசடி செய்பவர்கள் இந்த கருவிகளைப் பயன்படுத்தி யதார்த்தமான ஆனால் போலி உள்ளடக்கத்தை விரைவாகவும் மலிவாகவும் உருவாக்கலாம், அதை பெரிய குழுக்களாக பரப்பலாம் அல்லது சில சமூகங்களை குறிவைத்தல் அல்லது குறிப்பிட்ட நபர்கள். அவர்கள் உருவாக்க சாட்போட்களைப் பயன்படுத்தலாம் ஸ்பியர்-ஃபிஷிங் மின்னஞ்சல்கள்அருவடிக்கு போலி வலைத்தளங்கள்அருவடிக்கு போலி பதிவுகள்அருவடிக்கு போலி சுயவிவரங்கள்மற்றும் போலி நுகர்வோர் மதிப்புரைகள்அல்லது உருவாக்க உதவ தீம்பொருள்அருவடிக்கு ransomwareமற்றும் உடனடி ஊசி தாக்குதல்கள். அவர்கள் எளிதாக்க டீப்ஃபேக்குகள் மற்றும் குரல் குளோன்களைப் பயன்படுத்தலாம் மோசடி மோசடிஅருவடிக்கு மிரட்டி பணம் பறித்தல்மற்றும் நிதி மோசடி. அது மிகவும் முழுமையான பட்டியல்.

ஏமாற்றும் அல்லது நியாயமற்ற நடத்தை குறித்த எஃப்.டி.சி சட்டத்தின் தடை, நீங்கள் ஏமாற்றுவதற்காக திறம்பட வடிவமைக்கப்பட்ட ஒரு கருவியை உருவாக்கினால், விற்றால் அல்லது பயன்படுத்தினால் – அது அதன் நோக்கம் அல்லது ஒரே நோக்கம் இல்லையென்றாலும் கூட. எனவே கவனியுங்கள்:

நீங்கள் அதை உருவாக்க வேண்டுமா அல்லது விற்க வேண்டுமா? நீங்கள் ஒரு செயற்கை மீடியா அல்லது உருவாக்கும் AI தயாரிப்பை உருவாக்கினால் அல்லது வழங்கினால், வடிவமைப்பு கட்டத்தில் கருத்தில் கொள்ளுங்கள், அதன்பிறகு நியாயமான முறையில் எதிர்பார்க்கக்கூடிய – மற்றும் பெரும்பாலும் வெளிப்படையான – மோசடிக்கு இது தவறாகப் பயன்படுத்தப்படலாம் அல்லது பிற தீங்குகளை ஏற்படுத்தலாம். இதுபோன்ற அபாயங்கள் அதிகமாக இருக்கிறதா என்று நீங்களே கேட்டுக்கொள்ளுங்கள், நீங்கள் தயாரிப்பை வழங்கக்கூடாது. இது ஒரு நினைவுச்சின்னமாகிவிட்டது, ஆனால் இங்கே நாம் “ஜுராசிக் பார்க்” இல் உள்ள ஜெஃப் கோல்ட்ப்ளம் கதாபாத்திரமான டாக்டர் இயன் மால்கம், நிர்வாகிகள் அவர்கள் ஆர்வமாக இருப்பதற்கு அறிவுறுத்தினர் முடியும் அவர்கள் சிந்திக்க அவர்கள் நிறுத்தாத ஒன்றை உருவாக்குங்கள் வேண்டும்.

அபாயங்களை திறம்பட தணிக்கிறீர்களா? அதுபோன்ற ஒரு தயாரிப்பு செய்ய அல்லது வழங்க நீங்கள் முடிவு செய்தால், அனைத்து நியாயமான முன்னெச்சரிக்கை நடவடிக்கைகளையும் எடுத்துக் கொள்ளுங்கள் முன் இது சந்தையைத் தாக்கும். நுகர்வோர் காயத்தைத் தடுக்க நியாயமான நடவடிக்கைகளை எடுக்காமல் தீங்கு விளைவிக்கும் தொழில்நுட்பங்களை பரப்பிய வணிகங்கள் மீது எஃப்.டி.சி வழக்குத் தொடுத்துள்ளது. மோசமான நடிகர்களைத் தடுக்க உங்கள் வாடிக்கையாளர்களுக்கு தவறாகப் பயன்படுத்துவது அல்லது வெளிப்பாடுகளைச் செய்யச் சொல்வது போதுமானதாக இல்லை. உங்கள் தடுப்பு நடவடிக்கைகள் நீடித்த, உள்ளமைக்கப்பட்ட அம்சங்களாக இருக்க வேண்டும், ஆனால் பிழைகள் திருத்தங்கள் அல்லது மூன்றாம் தரப்பினர் மாற்றியமைத்தல் அல்லது அகற்றுதல் மூலம் குறைமதிப்பிற்கு உட்படுத்தக்கூடிய விருப்ப அம்சங்கள் அல்ல. உங்கள் கருவி மக்களுக்கு உதவுவதற்காக இருந்தால், அது உண்மையில் மனிதர்களைப் பின்பற்ற வேண்டுமா அல்லது ஒரு போட் போல செயல்படுவது, பேசுவது, பேசுவது அல்லது செயல்படுவது போன்றதாக இருக்க முடியுமா என்று நீங்களே கேட்டுக்கொள்ளுங்கள்.

வெளியீட்டுக்கு பிந்தைய கண்டறிதலை நீங்கள் அதிகமாக நம்புகிறீர்களா? AI- உருவாக்கிய வீடியோக்கள், படங்கள் மற்றும் ஆடியோவுக்கான கண்டறிதல் முறைகளை ஆராய்ச்சியாளர்கள் தொடர்ந்து மேம்படுத்துகிறார்கள். AI- உருவாக்கிய உரையை அங்கீகரிப்பது மிகவும் கடினம். ஆனால் இந்த ஆராய்ச்சியாளர்கள் நிறுவனங்களை உருவாக்கும் AI கருவிகளை உருவாக்கும் நிறுவனங்களுடன் ஆயுதப் பந்தயத்தில் உள்ளனர், மேலும் இந்த கருவிகளைப் பயன்படுத்தும் மோசடி செய்பவர்கள் யாரோ தங்கள் போலி உள்ளடக்கத்தைக் கண்டறியும் நேரத்தில் பெரும்பாலும் நகர்ந்திருப்பார்கள். சுமை நுகர்வோர் மீது இருக்கக்கூடாது, எப்படியிருந்தாலும், அவற்றை மோசடி செய்ய ஒரு உருவாக்கும் AI கருவி பயன்படுத்தப்படுகிறதா என்பதைக் கண்டுபிடிக்க.

மக்களைப் பார்ப்பது, கேட்பது அல்லது படிப்பது பற்றி நீங்கள் தவறாக வழிநடத்துகிறீர்களா? நீங்கள் ஒரு விளம்பரதாரராக இருந்தால், இந்த கருவிகளில் சிலவற்றை விற்க நீங்கள் ஆசைப்படலாம். பிரபல டீப்ஃபேக்குகள் ஏற்கனவே பொதுவானவை, எடுத்துக்காட்டாக, விளம்பரங்களில் வெளிவருகின்றன. நாங்கள் முன்பு எச்சரித்தார் டாப்பல்கெங்கர்கள் வழியாக நுகர்வோரை தவறாக வழிநடத்தும் நிறுவனங்கள் போலி டேட்டிங் சுயவிவரங்கள்அருவடிக்கு ஃபோனி பின்தொடர்பவர்கள்.

இந்த இடுகையின் கவனம் மோசடி மற்றும் ஏமாற்றத்தில் இருக்கும்போது, ​​இந்த புதிய AI கருவிகள் இந்த கருவிகளுடன் தொடர்பு கொள்ளும்போது அல்லது உட்படுத்தப்படும்போது குழந்தைகள், பதின்வயதினர் மற்றும் பிற மக்களுக்கு ஏற்படக்கூடிய தீங்கு போன்ற பல தீவிரமான கவலைகளை அவர்களுடன் கொண்டு செல்கின்றன. நிறுவனங்கள் இந்த தயாரிப்புகளை சந்தைக்கு தொடர்ந்து விரைந்து செல்வதால், மனித-கணினி இடைவினைகள் புதிய மற்றும் ஆபத்தான திருப்பங்களை எடுத்துக்கொள்வதால், கமிஷன் ஊழியர்கள் அந்த கவலைகளை உன்னிப்பாகக் கண்காணித்து வருகின்றனர்.

FTC இன் கூடுதல் பதிவுகள் AI மற்றும் உங்கள் வணிகம் தொடர்:

ஆதாரம்