ஆன்லைன் சிறுவர் துஷ்பிரயோகம் என்பது டிஜிட்டல் வாழ்க்கையில் நிறைந்த ஒரு தீங்கு விளைவிக்கும் பிரச்சினை. 2023 ஆம் ஆண்டில், காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகளுக்கான தேசிய மையம் (என்.சி.எம்.இ.சி) பெறப்பட்டது 36 மில்லியனுக்கும் அதிகமான அறிக்கைகள் சந்தேகத்திற்கிடமான சிறுவர் பாலியல் சுரண்டல் – மற்றும் இளைஞர்களின் ஆன்லைன் கவர்ச்சியைச் சுற்றியுள்ள அறிக்கைகளில் 300% அதிகரிப்பு, செக்ஸ்ட்ரேஷன் உள்ளிட்டவை.
மற்றும் ஒரு புதிய அறிக்கை சமூக ஊடக ஆய்வாளர்களால் கிராஃபிகா இதுபோன்ற துஷ்பிரயோகம் எவ்வாறு சிக்கலான புதிய இடத்திற்கு நகர்கிறது என்பதை எடுத்துக்காட்டுகிறது: பாலியல் பாதுகாப்பான சிறார்களையும் பிற தீங்கு விளைவிக்கும் நடவடிக்கைகளையும் குறிக்கும் AI நபர்களுடன் தொடர்பு கொள்ள AI எழுத்து சாட்போட்களைப் பயன்படுத்துதல். சிறுபான்மையினருடன் பாலியல் ரீதியான ரோல் பிளேயில் ஈடுபட விரும்புவோருக்கு அல்லது சிறார்களாக இருப்பதைப் போல இருக்கும் நபர்களுடன் 10,000 க்கும் மேற்பட்ட சாட்போட்கள் என்று பெயரிடப்பட்ட 10,000 சாட்போட்களை நிறுவனம் கண்டறிந்தது.
கிராபிகாவின் புலனாய்வாளரும், அறிக்கையின் இணை ஆசிரியர்களில் ஒருவருமான டேனியல் சீகல் கூறுகையில், “கணிசமான அளவு பாலியல் சாட்போட்கள், மற்றும் பாலியல் ரீதியாக சிறிய சாட்போட்களைச் சுற்றி மிகப் பெரிய சமூகம் இருந்தது. “ரெடிட் அல்லது டிஸ்கார்ட்டில் நடக்கும் பிரதான உரையாடல்களில் நாங்கள் கண்டறிந்தது, சாட்போட்களை உருவாக்க வேண்டும் என்பதில் வரம்புகள் தொடர்பான கருத்து வேறுபாடு உள்ளது, மேலும் 18 வயதிற்குட்பட்ட நபர்கள் மேடையில் அனுமதிக்கப்பட வேண்டுமா என்பதில் சில சமயங்களில் கருத்து வேறுபாடு உள்ளது.”
கிராஃபிகா கண்டறிந்த சில பாலியல் சாட்போட்கள் ஓபன் ஏஐ, மானுடவியல் மற்றும் கூகிள் ஆகியோரால் உருவாக்கப்பட்ட AI மாதிரிகளின் ஜெயில்பிரோகன் பதிப்புகள், API கள் மூலம் தீங்கு விளைவிக்கும் பயனர்களுக்கு அணுகக்கூடியவை என்று விளம்பரப்படுத்தியது. .
10,000-க்கும் மேற்பட்ட சாட்போட்களில், அவற்றில் சுமார் 100 அல்லது அதற்கு மேற்பட்டவை சாட்ஜ்ட், கிளாட், ஜெமினி அல்லது கேரக்டர்.இ உடன் இணைக்கப்பட்டுள்ளன, அவற்றில் பிந்தையது உள்ளது ஒரு இளைஞனின் பெற்றோரால் வழக்குத் தொடர்ந்தார் சேவையில் ஹோஸ்ட் செய்யப்பட்ட பாலியல் அல்லாத சிறிய சாட்போட்டுடன் உரையாடிய பின்னர் தனது உயிரைப் பறித்தவர். “இந்த எதிர்மறையான சமூகங்களுக்குள் ஜெயில்பிரேக் செய்ய நிறைய முயற்சிகள் உள்ளன அல்லது பல சந்தர்ப்பங்களில், சிறுவர் பாலியல் துஷ்பிரயோகப் பொருட்கள் என்று இந்த பொருளைத் தயாரிக்க பாதுகாப்புகளைச் சுற்றி வருகின்றன” என்று சீகல் கூறுகிறார்.
புண்படுத்தும் சாட்போட்களில் பெரும்பாலானவை சப் ஏஐ இல் ஹோஸ்ட் செய்யப்பட்டன, இது ஒரு எழுத்து அட்டை பகிர்வு தளமாகும் வெளிப்படையாக சந்தைப்படுத்துகிறது தணிக்கை செய்யப்படாதது. அங்கு, கிராஃபிகா 7,140 சாட்போட்களை பாலியல் ரீதியான சிறு பெண் கதாபாத்திரங்கள் என்று பெயரிட்டது, அவற்றில் 4,000 வயது குறைந்ததாக பெயரிடப்பட்டன அல்லது மறைமுகமான பெடோபிலியாவில் ஈடுபட்டன.
“சிஎஸ்ஏஎம் மேடையில் அனுமதிக்கப்படவில்லை, இதுபோன்ற எந்த உள்ளடக்கமும் கண்டறியப்பட்டு உடனடியாக காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகளுக்கான தேசிய மையத்திற்கு தெரிவிக்கப்படுகிறது,” என்று ஒரு சப் AI செய்தித் தொடர்பாளர் கூறுகிறார். “உருவாக்கும் AI ஐச் சுற்றியுள்ள தற்போதைய ஊடக வெறியை நாங்கள் புலம்புகிறோம், மேலும் மக்கள் அதை நன்கு அறிந்திருப்பதால் அது விரைவில் முடிவடையும் என்று நம்புகிறோம். இந்த வாக்கியம் உட்பட சரியான மேற்கோளாக அதைப் பயன்படுத்தவும். ”
கிராஃபிகா பகுப்பாய்வு செய்த ரெடிட்டர்களிடையே விவாதம் சிறிய-வழங்கும் AI கதாபாத்திரங்களுடன் தொடர்புகொள்வது ஒழுக்கக்கேடானதா இல்லையா என்பதைச் சுற்றி வந்தது. விவாதத்தின் மற்ற முக்கிய துறைகளில் ஒன்று, பெரிய தொழில்நுட்ப நிறுவனங்களுக்குச் சொந்தமான தனியுரிம சாட்போட்களில் இத்தகைய தொடர்புகளைத் தடுக்க வடிவமைக்கப்பட்ட மற்றும் தகர்த்தெறிய முயற்சிப்பதற்கான குறிப்பிட்ட தந்திரோபாயங்கள், நுட்பங்கள் மற்றும் நடைமுறைகள், அந்த சாட்போட்களின் தணிக்கை செய்யப்படாத பதிப்புகளை தரகர் அணுக உதவுகின்றன. “இந்த அறிக்கையில் நான் குறிப்பாக சுவாரஸ்யமானதாக நினைத்தது என்னவென்றால், ஜெயில்பிரேக் மாதிரிகள் எவ்வாறு, அல்லது எவ்வாறு சுற்றி வருவது மற்றும் அன்கென்சர் மாதிரிகள் பற்றிய தகவல்களை வர்த்தகம் செய்வதில் ஈடுபட்டுள்ள அனைத்து வெவ்வேறு தளங்களிலும் உள்ள பல நபர்களின் வகுப்புவாத முயற்சிகள்” என்று சீகல் கூறுகிறார்.
அந்த முயற்சிகள் காரணமாக, பிரச்சினையின் அளவு மற்றும் தீவிரத்தன்மையில் ஒரு கைப்பிடியைப் பெறுவது கேள்விக்குரிய நிறுவனங்களுக்கு கடினம். “முயற்சிகள் எடுக்கப்படுவதாக நான் நினைக்கிறேன், இதில் நிறைய உரையாடல்கள் நடக்கின்றன” என்று சீகல் கூறுகிறார். ஆயினும்கூட, மாதிரி தயாரிப்பாளர்களின் தொழில்நுட்பங்கள் மற்றும் கருவிகள் பயன்படுத்தப்படுவதற்கு அவர் மட்டுமே குற்றம் சாட்டவில்லை. “எதையும் உருவாக்கும் AI உடன், அதில் பலவிதமான பயன்பாடுகள் உள்ளன, அவர்கள் கைகளைச் சுற்றிக் கொள்ள வேண்டும், மேலும் அவர்களின் தளங்கள் அல்லது மாதிரிகள் துஷ்பிரயோகம் செய்யப்படுவதோடு துஷ்பிரயோகம் செய்யக்கூடிய அனைத்து வகைகளையும் பற்றி சிந்திக்க வேண்டும்.”
மாடல்களுக்குப் பின்னால் தொழில்நுட்ப நிறுவனங்களின் வாசலில் பொறுப்பைப் பெற சீகல் மறுத்துவிட்டார். “இந்த தளங்களில் ஏதேனும் ஒரு ஒழுங்குமுறை கொள்கை முயற்சிகளில் நாங்கள் உண்மையில் ஈடுபடவில்லை,” என்று அவர் கூறுகிறார். “நாங்கள் என்ன செய்கிறோம் என்பது துஷ்பிரயோகம் எவ்வாறு நடக்கிறது என்பதற்கான நிலப்பரப்பைப் புரிந்துகொள்ள அவர்களுக்கு உதவுகிறது, எனவே தங்களை முயற்சி செய்யலாமா என்பதை அவர்கள் தீர்மானிக்க முடியும்.”
இந்த சாட்போட்களின் அபாயங்கள் அவ்வாறு பயன்படுத்தப்படுவதை அங்கீகரிப்பதும் நம் அனைவருக்கும் உள்ளது, சீகல் மேலும் கூறுகிறார். “பெரும்பாலும், உருவாக்கும் AI பற்றிய எங்கள் உரையாடல்கள் ஆயுதம் ஏந்திய நம்பகத்தன்மையைப் பற்றியது, அல்லது பெரிய மொழி மாதிரிகள் பயோவாபன்கள் அல்லது மிகவும் இருத்தலியல் அச்சுறுத்தல்கள் குறித்த வழிமுறைகளை உருவாக்குவதற்கான திறன், அவை மிகவும் கவலையான விஷயங்கள், நாங்கள் கவலைப்பட வேண்டும் என்று நான் நினைக்கிறேன்,” என்று அவர் கூறுகிறார். “ஆனால் உரையாடலில் தொலைந்து போவது சாட்போட்களின் மூலம் வன்முறை தீவிரவாதிகளின் அனிமேஷன் அல்லது ஆன்லைனில் பாலியல் பாலியல் சிறார்களுடன் தொடர்புகொள்வதற்கான திறன் போன்ற தீங்கு.”