ஆப்பிளின் CSAM அமைப்பு ஏமாற்றப்பட்டது, ஆனால் நிறுவனத்திற்கு இரண்டு பாதுகாப்புகள் உள்ளன

புதுப்பிப்பு: ஆப்பிள் சேவையகத்தின் இரண்டாவது ஆய்வைப் பற்றிக் குறிப்பிட்டுள்ளது, மேலும் ஒரு தொழில்முறை கணினி பார்வை நிறுவனம் இதை விவரிக்கக்கூடிய சாத்தியக்கூறுகளை கீழே உள்ள "இரண்டாவது ஆய்வு எவ்வாறு செயல்படக்கூடும்" என்பதில் கோடிட்டுக் காட்டியது.
டெவலப்பர்கள் அதன் பொறியியல் பகுதிகளை மாற்றிய பிறகு, ஆப்பிள் சிஎஸ்ஏஎம் அமைப்பின் ஆரம்ப பதிப்பு ஒரு அப்பாவி படத்தைக் குறிக்க திறம்பட ஏமாற்றப்பட்டது.இருப்பினும், நிஜ வாழ்க்கையில் இது நிகழாமல் தடுக்க கூடுதல் பாதுகாப்புகள் இருப்பதாக ஆப்பிள் கூறியது.
நியூரல்ஹாஷ் அல்காரிதம் ஓப்பன் சோர்ஸ் டெவலப்பர் இணையதளமான கிட்ஹப்பில் வெளியிடப்பட்ட பிறகு சமீபத்திய மேம்பாடு ஏற்பட்டது, அதை யார் வேண்டுமானாலும் பரிசோதனை செய்யலாம்...
காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகளுக்கான தேசிய மையம் (NCMEC) போன்ற நிறுவனங்களிலிருந்து அறியப்பட்ட குழந்தை பாலியல் துஷ்பிரயோகப் பொருட்களின் தரவுத்தளத்தை இறக்குமதி செய்வதன் மூலம் அனைத்து CSAM அமைப்புகளும் செயல்படுகின்றன.தரவுத்தளமானது படங்களில் இருந்து ஹாஷ்கள் அல்லது டிஜிட்டல் கைரேகைகள் வடிவில் வழங்கப்படுகிறது.
பெரும்பாலான தொழில்நுட்ப ஜாம்பவான்கள் கிளவுட்டில் பதிவேற்றப்பட்ட புகைப்படங்களை ஸ்கேன் செய்தாலும், ஆப்பிள் வாடிக்கையாளர்களின் ஐபோனில் நியூரல்ஹாஷ் அல்காரிதத்தைப் பயன்படுத்தி சேமிக்கப்பட்ட புகைப்படத்தின் ஹாஷ் மதிப்பை உருவாக்குகிறது, பின்னர் அதை CSAM ஹாஷ் மதிப்பின் பதிவிறக்கப்பட்ட நகலுடன் ஒப்பிடுகிறது.
நேற்று, ஒரு டெவலப்பர், ஆப்பிளின் அல்காரிதத்தைத் தலைகீழாக வடிவமைத்து, குறியீட்டை GitHub க்கு வெளியிட்டதாகக் கூறினார் - இந்தக் கூற்றை ஆப்பிள் திறம்பட உறுதிப்படுத்தியது.
GitHib வெளியிடப்பட்ட சில மணிநேரங்களுக்குள், ஆராய்ச்சியாளர்கள் வேண்டுமென்றே தவறான நேர்மறையை உருவாக்க அல்காரிதத்தை வெற்றிகரமாகப் பயன்படுத்தினர் - ஒரே ஹாஷ் மதிப்பை உருவாக்கும் இரண்டு முற்றிலும் மாறுபட்ட படங்கள்.இது மோதல் என்று அழைக்கப்படுகிறது.
அத்தகைய அமைப்புகளுக்கு, எப்போதும் மோதல்களின் ஆபத்து உள்ளது, ஏனெனில் ஹாஷ் நிச்சயமாக படத்தின் எளிமைப்படுத்தப்பட்ட பிரதிநிதித்துவமாகும், ஆனால் யாரோ ஒருவர் படத்தை இவ்வளவு விரைவாக உருவாக்க முடியும் என்பது ஆச்சரியமாக இருக்கிறது.
இங்கு வேண்டுமென்றே மோதல் என்பது கருத்தின் ஒரு சான்று மட்டுமே.டெவலப்பர்களுக்கு CSAM ஹாஷ் தரவுத்தளத்திற்கான அணுகல் இல்லை, இது நிகழ்நேர அமைப்பில் தவறான நேர்மறைகளை உருவாக்க வேண்டும், ஆனால் மோதல் தாக்குதல்கள் கொள்கையளவில் எளிதானது என்பதை இது நிரூபிக்கிறது.
அதன் சொந்த அமைப்பின் அடிப்படையே அல்காரிதம் என்பதை ஆப்பிள் திறம்பட உறுதிப்படுத்தியது, ஆனால் இது இறுதி பதிப்பு அல்ல என்று மதர்போர்டிடம் கூறியது.அதை ரகசியமாக வைத்திருக்க விரும்பவில்லை என்றும் நிறுவனம் கூறியது.
GitHub இல் பயனரால் பகுப்பாய்வு செய்யப்பட்ட பதிப்பு ஒரு பொதுவான பதிப்பு, iCloud புகைப்பட CSAM கண்டறிதலுக்குப் பயன்படுத்தப்படும் இறுதிப் பதிப்பு அல்ல என்று Apple மதர்போர்டிற்கு மின்னஞ்சலில் தெரிவித்தது.இந்த வழிமுறையையும் வெளிப்படுத்தியதாக ஆப்பிள் கூறியது.
"NeuralHash அல்காரிதம் [...] கையொப்பமிடப்பட்ட இயக்க முறைமைக் குறியீட்டின் ஒரு பகுதியாகும் [மற்றும்] பாதுகாப்பு ஆராய்ச்சியாளர்கள் அதன் நடத்தை விளக்கத்துடன் ஒத்துப்போகிறதா என்பதைச் சரிபார்க்க முடியும்" என்று ஒரு ஆப்பிள் ஆவணம் எழுதியது.
நிறுவனம் மேலும் இரண்டு படிகள் உள்ளன என்று கூறியது: அதன் சொந்த சர்வரில் இரண்டாம் நிலை (ரகசிய) பொருத்த அமைப்பை இயக்குதல் மற்றும் கைமுறை மதிப்பாய்வு.
பயனர்கள் 30-போட்டி வரம்பை கடந்த பிறகு, ஆப்பிள் சேவையகங்களில் இயங்கும் இரண்டாவது பொது அல்லாத அல்காரிதம் முடிவுகளைச் சரிபார்க்கும் என்றும் ஆப்பிள் கூறியது.
"CSAM அல்லாத படங்களின் எதிர்மறையான குறுக்கீடு காரணமாக தவறான நியூரல்ஹாஷ் சாதனத்தில் மறைகுறியாக்கப்பட்ட CSAM தரவுத்தளத்துடன் பொருந்துகிறது மற்றும் பொருந்தக்கூடிய வரம்பை மீறும் சாத்தியத்தை நிராகரிக்க இந்த சுயாதீன ஹாஷ் தேர்ந்தெடுக்கப்பட்டது."
ரோபோஃப்ளோவின் பிராட் டுவயர், மோதல் தாக்குதலுக்கான கருத்தாக்கத்தின் ஆதாரமாக இடுகையிடப்பட்ட இரண்டு படங்களையும் எளிதாக வேறுபடுத்திக் காட்ட ஒரு வழியைக் கண்டுபிடித்தார்.
ஒரே மாதிரியான ஆனால் வேறுபட்ட நரம்பியல் அம்சம் பிரித்தெடுக்கும் OpenAI இன் CLIP இல் இந்தப் படங்கள் எப்படி இருக்கும் என்று நான் ஆர்வமாக உள்ளேன்.CLIP நியூரல்ஹாஷைப் போலவே செயல்படுகிறது;இது ஒரு படத்தை எடுக்கிறது மற்றும் படத்தின் உள்ளடக்கத்திற்கு மேப் செய்யும் அம்ச திசையன்களின் தொகுப்பை உருவாக்க நரம்பியல் நெட்வொர்க்கைப் பயன்படுத்துகிறது.
ஆனால் OpenAI இன் நெட்வொர்க் வேறுபட்டது.இது படங்கள் மற்றும் உரைக்கு இடையில் வரைபடமாக்கும் ஒரு பொதுவான மாதிரி.இதன் பொருள், மனிதனால் புரிந்துகொள்ளக்கூடிய படத் தகவலைப் பிரித்தெடுக்க இதைப் பயன்படுத்தலாம்.
மேலே உள்ள இரண்டு மோதல் படங்களையும் CLIP மூலம் இயக்கினேன், அதுவும் ஏமாற்றப்பட்டதா என்பதைப் பார்க்க.குறுகிய பதில்: இல்லை.அதாவது, கண்டறியப்பட்ட CSAM படங்கள் உண்மையானதா அல்லது போலியானதா என்பதைத் தீர்மானிக்க, ஆப்பிள் இரண்டாவது அம்சம் பிரித்தெடுக்கும் நெட்வொர்க்கை (CLIP போன்றவை) பயன்படுத்த முடியும்.ஒரே நேரத்தில் இரண்டு நெட்வொர்க்குகளை ஏமாற்றும் படங்களை உருவாக்குவது மிகவும் கடினம்.
இறுதியாக, முன்பு குறிப்பிட்டபடி, படங்கள் CSAM என்பதை உறுதிப்படுத்த கைமுறையாக மதிப்பாய்வு செய்யப்படுகின்றன.
ஆப்பிளை தொந்தரவு செய்ய விரும்பும் எவரும் மனித மதிப்பாய்வாளர்களுக்கு தவறான நேர்மறைகளை வழங்க முடியும் என்பதே உண்மையான ஆபத்து என்று ஒரு பாதுகாப்பு ஆராய்ச்சியாளர் கூறினார்.
"ஆப்பிள் உண்மையில் இந்த அமைப்பை வடிவமைத்துள்ளது, எனவே ஹாஷ் செயல்பாட்டை ரகசியமாக வைத்திருக்க வேண்டிய அவசியமில்லை, ஏனென்றால் 'CSAM அல்லாத CSAM' மூலம் நீங்கள் செய்யக்கூடிய ஒரே விஷயம், ஆப்பிளின் மறுமொழி குழுவை சில குப்பை படங்களால் தொந்தரவு செய்வதே ஆகும். பகுப்பாய்வு குழாயில் உள்ள குப்பைகள் தவறான நேர்மறையானவை, ”என்று பெர்க்லியில் உள்ள கலிபோர்னியா பல்கலைக்கழகத்தில் உள்ள சர்வதேச கணினி அறிவியல் நிறுவனத்தின் மூத்த ஆராய்ச்சியாளர் நிக்கோலஸ் வீவர் மதர்போர்டுக்கு ஆன்லைன் அரட்டையில் தெரிவித்தார்.
தனியுரிமை என்பது இன்றைய உலகில் அதிகரித்து வரும் கவலைக்குரிய பிரச்சினையாகும்.எங்கள் வழிகாட்டுதல்களில் உள்ள தனியுரிமை, பாதுகாப்பு போன்ற அனைத்து அறிக்கைகளையும் பின்பற்றவும்.
பென் லவ்ஜாய் ஒரு பிரிட்டிஷ் தொழில்நுட்ப எழுத்தாளர் மற்றும் 9to5Mac இன் EU ஆசிரியர் ஆவார்.அவர் தனது நெடுவரிசைகள் மற்றும் நாட்குறிப்புக் கட்டுரைகளுக்காக அறியப்படுகிறார், மேலும் விரிவான மதிப்புரைகளைப் பெறுவதற்காக ஆப்பிள் தயாரிப்புகளுடன் காலப்போக்கில் தனது அனுபவத்தை ஆராய்ந்தார்.அவர் நாவல்களையும் எழுதுகிறார், இரண்டு தொழில்நுட்ப த்ரில்லர்கள், சில குறும்பட அறிவியல் புனைகதை படங்கள் மற்றும் ஒரு ரோம்-காம்!


இடுகை நேரம்: ஆகஸ்ட்-20-2021