
What Mythos Means for Software Security | TheStandup
Audio Summary
AI Summary
जॉर्ज हॉट्स ने एक विवादित बयान दिया है, जिसमें उन्होंने कहा कि वह हर दिन एक ज़ीरो-डे रिलीज़ करेंगे जब तक कोई बड़ा नया मॉडल जारी नहीं हो जाता, ताकि OpenAI और Anthropic साइबर सुरक्षा जोखिमों के बारे में चुप हो जाएं। उनका दावा है कि सुरक्षा खामियां ढूंढना मुश्किल नहीं है, बस इसके लिए सही प्रेरणा की कमी है। उन्होंने यह भी कहा कि अगर हैकिंग को कानूनी बना दिया जाए, तो और भी ज़ीरो-डे सामने आएंगे।
इस पर प्रतिक्रिया देते हुए, एड ने कहा कि वे हॉट्स के इस विचार से असहमत हैं। उनका कहना है कि कई बग बाउंटी प्रोग्राम मौजूद हैं जो कमजोरियां खोजने के लिए अच्छा भुगतान करते हैं, जैसे कि Apple का iPhone ज़ीरो-क्लिक RCE बग बाउंटी जो $2-3 मिलियन तक का भुगतान करता है। उनका मानना है कि हॉट्स का तर्क यह है कि ज़ीरो-डे इसलिए नहीं मिल रहे क्योंकि कोई प्रोत्साहन नहीं है, लेकिन यह सच नहीं है।
एड ने यह भी बताया कि AI मॉडल अब कोड में कमजोरियों को खोजने में लगातार बेहतर हो रहे हैं। Cyberjim.com पर एक ग्राफ दिखाता है कि Anthropic मॉडल 83% सफलता दर के साथ ज्ञात बग्स को ढूंढ सकता है। इससे यह चिंता पैदा होती है कि कम सुरक्षा ज्ञान वाले लोग भी AI की मदद से आसानी से बग ढूंढ सकते हैं, जिससे सॉफ्टवेयर सुरक्षा के लिए एक बड़ा खतरा पैदा हो सकता है।
प्राइम ने इस बात पर जोर दिया कि Mythos की वास्तविक क्षमता पर संदेह है, क्योंकि सभी बेंचमार्क डेटा हमेशा विश्वसनीय नहीं होते हैं। उन्होंने कहा कि अगर Mythos वास्तव में इतना अच्छा है, तो यह समस्याएं पैदा करेगा क्योंकि हर कोई हैकिंग करने में सक्षम हो जाएगा, जिससे नियम-कानूनों की आवश्यकता बढ़ जाएगी। उन्होंने Anthropic के मार्केटिंग अभियानों की भी आलोचना की, जिसमें वे अक्सर अपने उत्पादों को बढ़ा-चढ़ाकर पेश करते हैं।
केसी ने एक मध्यस्थ दृष्टिकोण अपनाते हुए कहा कि मशीनें पैटर्न-मैचिंग में बहुत अच्छी हैं, और यह उम्मीद करना उचित है कि AI अंततः उच्च दर पर बग ढूंढने में सक्षम होगा। उन्होंने कहा कि मानव सुरक्षा शोधकर्ता पहले से ही यह काम बहुत अच्छी तरह से कर रहे थे, लेकिन उनकी संख्या कम थी। AI इस समस्या को हल कर सकता है, जिससे सुरक्षा जांच की स्केलेबिलिटी बढ़ेगी। हालांकि, उन्होंने इस बात पर भी जोर दिया कि AI कंपनियों को उन सुरक्षा शोधकर्ताओं को भुगतान करना चाहिए जिनके काम का उपयोग उनके मॉडल को प्रशिक्षित करने के लिए किया जाता है।
कुल मिलाकर, चर्चा इस बात पर केंद्रित थी कि AI सुरक्षा कमजोरियों को खोजने की क्षमता सॉफ्टवेयर सुरक्षा के लिए क्या मायने रखती है, और AI कंपनियों को अपने मार्केटिंग और नैतिक जिम्मेदारियों के बारे में अधिक पारदर्शी होने की आवश्यकता है।