AI बनाएगा परमाणु बम? गॉडफादर की चेतावनी से हिल गई दुनिया, मानवता पर मंडरा रहा है खतरा

AI बनाएगा परमाणु बम? गॉडफादर की चेतावनी से हिल गई दुनिया, मानवता पर मंडरा रहा है खतरा


उनका कहना है कि अगर एआई को काबू में नहीं रखा गया तो यह इंसानियत के लिए बड़ा खतरा बन सकता है. यहां तक कि उन्होंने यह भी दावा किया है कि भविष्य में कोई आम इंसान भी एआई की मदद से परमाणु बम जैसे खतरनाक हथियार बना सकता है.

उनका कहना है कि अगर एआई को काबू में नहीं रखा गया तो यह इंसानियत के लिए बड़ा खतरा बन सकता है. यहां तक कि उन्होंने यह भी दावा किया है कि भविष्य में कोई आम इंसान भी एआई की मदद से परमाणु बम जैसे खतरनाक हथियार बना सकता है.

हिंटन का मानना है कि आने वाले समय में एआई इंसानों से भी ज्यादा शक्तिशाली हो सकता है. उन्होंने कहा कि यह तकनीक इतनी सक्षम हो सकती है कि कोई भी व्यक्ति जैविक हथियार तैयार कर सके जिससे दुनिया पर बड़े स्तर पर तबाही का खतरा मंडरा सकता है. उन्होंने इसे बेहद डरावनी स्थिति बताया और कहा कि अगर कोई आम शख्स भी विनाशकारी शक्ति हासिल कर ले तो इसका अंजाम कल्पना से भी ज्यादा भयानक हो सकता है.

हिंटन का मानना है कि आने वाले समय में एआई इंसानों से भी ज्यादा शक्तिशाली हो सकता है. उन्होंने कहा कि यह तकनीक इतनी सक्षम हो सकती है कि कोई भी व्यक्ति जैविक हथियार तैयार कर सके जिससे दुनिया पर बड़े स्तर पर तबाही का खतरा मंडरा सकता है. उन्होंने इसे बेहद डरावनी स्थिति बताया और कहा कि अगर कोई आम शख्स भी विनाशकारी शक्ति हासिल कर ले तो इसका अंजाम कल्पना से भी ज्यादा भयानक हो सकता है.

जेफ्री हिंटन पहले भी कई बार एआई को लेकर चेतावनी दे चुके हैं. उनका कहना है कि एआई मानवीय क्षमताओं को पीछे छोड़ सकता है यहां तक कि यह इंसानों की भावनाओं और व्यवहारों को भी प्रभावित करने में सक्षम है. उन्होंने बताया कि बड़े-बड़े डेटासेट्स पर ट्रेनिंग पाने की वजह से एआई अब इस काबिल हो चुका है कि यह भावनात्मक हेरफेर जैसे जटिल काम इंसानों से ज्यादा प्रभावी ढंग से कर सके. यही वजह है कि वे इसे लेकर और भी ज्यादा चिंतित हैं.

जेफ्री हिंटन पहले भी कई बार एआई को लेकर चेतावनी दे चुके हैं. उनका कहना है कि एआई मानवीय क्षमताओं को पीछे छोड़ सकता है यहां तक कि यह इंसानों की भावनाओं और व्यवहारों को भी प्रभावित करने में सक्षम है. उन्होंने बताया कि बड़े-बड़े डेटासेट्स पर ट्रेनिंग पाने की वजह से एआई अब इस काबिल हो चुका है कि यह भावनात्मक हेरफेर जैसे जटिल काम इंसानों से ज्यादा प्रभावी ढंग से कर सके. यही वजह है कि वे इसे लेकर और भी ज्यादा चिंतित हैं.

हिंटन ने यह भी साफ कहा कि एआई अब वास्तव में स्मार्ट हो चुका है. चाहे बुद्धिमत्ता की परिभाषा कोई भी हो एआई उसमें फिट बैठता है. उन्होंने कई उदाहरण देकर बताया कि जिस तरह यह तकनीक चीजों को समझती है और उनके जवाब देती है वह इंसानों की क्षमता से काफी मेल खाती है. उनका मानना है कि यह अब केवल तकनीकी बहस का विषय नहीं रहा बल्कि टेक्नोलॉजी समुदाय भी इस बात को मान रहा है कि भविष्य में एआई और ज्यादा स्मार्ट होता जाएगा.

हिंटन ने यह भी साफ कहा कि एआई अब वास्तव में स्मार्ट हो चुका है. चाहे बुद्धिमत्ता की परिभाषा कोई भी हो एआई उसमें फिट बैठता है. उन्होंने कई उदाहरण देकर बताया कि जिस तरह यह तकनीक चीजों को समझती है और उनके जवाब देती है वह इंसानों की क्षमता से काफी मेल खाती है. उनका मानना है कि यह अब केवल तकनीकी बहस का विषय नहीं रहा बल्कि टेक्नोलॉजी समुदाय भी इस बात को मान रहा है कि भविष्य में एआई और ज्यादा स्मार्ट होता जाएगा.

हालांकि, हर कोई हिंटन की सोच से सहमत नहीं है. उनके पुराने सहयोगी और ट्यूरिंग अवॉर्ड के सह-विजेता यान लेकुन, जो इस समय मेटा में चीफ एआई साइंटिस्ट हैं, का मानना है कि एआई मॉडल्स की अपनी सीमाएं हैं. लेकुन का कहना है कि बड़े लैंग्वेज मॉडल्स अभी असली दुनिया के साथ गहराई से जुड़ने की क्षमता नहीं रखते और इन्हें लेकर इतना डरने की जरूरत नहीं है.

हालांकि, हर कोई हिंटन की सोच से सहमत नहीं है. उनके पुराने सहयोगी और ट्यूरिंग अवॉर्ड के सह-विजेता यान लेकुन, जो इस समय मेटा में चीफ एआई साइंटिस्ट हैं, का मानना है कि एआई मॉडल्स की अपनी सीमाएं हैं. लेकुन का कहना है कि बड़े लैंग्वेज मॉडल्स अभी असली दुनिया के साथ गहराई से जुड़ने की क्षमता नहीं रखते और इन्हें लेकर इतना डरने की जरूरत नहीं है.

एआई पर यह बहस फिलहाल जारी है लेकिन हिंटन की चेतावनी ने दुनिया को एक बार फिर सोचने पर मजबूर कर दिया है कि अगर यह तकनीक बेकाबू हो गई तो इंसानियत के लिए कितना बड़ा खतरा बन सकती है.

एआई पर यह बहस फिलहाल जारी है लेकिन हिंटन की चेतावनी ने दुनिया को एक बार फिर सोचने पर मजबूर कर दिया है कि अगर यह तकनीक बेकाबू हो गई तो इंसानियत के लिए कितना बड़ा खतरा बन सकती है.

Published at : 07 Sep 2025 02:51 PM (IST)


Preferred Sources

टेक्नोलॉजी फोटो गैलरी



Source link

Leave a Reply