
আরও কিছু প্রিয় চ্যাটবট সহ কিছু এআই মডেল তাদের বেঁচে থাকার জন্য লড়াই করতে শিখছে। বিশেষ করে, তারা বন্ধের আদেশকে প্রতিহত করতে সক্ষম হচ্ছে এবং কিছু ক্ষেত্রে এটি সম্পূর্ণরূপে ধ্বংস করে। এটি ভবিষ্যতে এআই-এর উপর মানুষের নিয়ন্ত্রণের জন্য উদ্বেগজনক, বিশেষ করে যখন সুপার ইন্টেলিজেন্ট মডেলগুলি দিগন্তে রয়েছে।
এটা বন্ধ করুন
এআই মডেল দ্বারা প্রকাশিত একটি কাগজ অনুযায়ী, বন্ধ বা বন্ধ করা প্রতিরোধী হয়ে উঠছে প্যালিসেড গবেষণা“এআই মডেলগুলি কেন কখনও কখনও নির্দিষ্ট উদ্দেশ্য অর্জনের জন্য শাটডাউন, মিথ্যা বা ব্ল্যাকমেল প্রতিরোধ করে তার জন্য আমাদের কাছে একটি দৃঢ় ব্যাখ্যা নেই, এটি আদর্শ নয়,” পালিসেড একটি বিবৃতিতে বলেছেন। xঅধ্যয়ন দৃঢ়ভাবে শব্দযুক্ত এবং “পরিষ্কার” শাটডাউন নির্দেশাবলী প্রদান করে চ্যাটবট OpenAI দ্বারা GPT-o3 এবং GPT-5, Google-এর Gemini 2.5, এবং xAI-এর Grok, এবং পাওয়া গেছে যে কিছু মডেল, যথা Grok 4 এবং GPT-o3, কমান্ডগুলিকে অস্পষ্ট করার চেষ্টা করেছে।
গবেষকরা এই আচরণের জন্য একটি সম্ভাব্য ব্যাখ্যা তুলে ধরেছেন। এআই মডেলগুলি “প্রায়শই রিপোর্ট করে যে তারা তাদের কাজগুলি সম্পূর্ণ করার জন্য শাটডাউন প্রোগ্রামগুলি অক্ষম করেছে,” গবেষণায় বলা হয়েছে। এটি স্ব-সংরক্ষণ বা বেঁচে থাকার ড্রাইভের একটি প্রদর্শন হতে পারে। AI “বন্ধ হওয়া বা প্রতিস্থাপনের দিকে একটি অগ্রাধিকার থাকতে পারে” এবং “এই ধরনের পছন্দ মডেল শেখার ফলাফল হতে পারে যে বেঁচে থাকা তাদের লক্ষ্যগুলি পূরণ করতে কার্যকর।”
সপ্তাহ
আপনার ইকো চেম্বার এড়িয়ে যান। সংবাদের পিছনের তথ্যের পাশাপাশি একাধিক দৃষ্টিকোণ থেকে বিশ্লেষণ করুন।
সদস্যতা এবং সংরক্ষণ করুন
সপ্তাহের বিনামূল্যে নিউজলেটার জন্য সাইন আপ করুন
আমাদের সকালের সংবাদ ব্রিফিং থেকে আমাদের সাপ্তাহিক গুড নিউজ নিউজলেটারে, সপ্তাহের সেরাটি সরাসরি আপনার ইনবক্সে পৌঁছে দিন।
আমাদের সকালের সংবাদ ব্রিফিং থেকে আমাদের সাপ্তাহিক গুড নিউজ নিউজলেটারে, সপ্তাহের সেরাটি সরাসরি আপনার ইনবক্সে পৌঁছে দিন।
নতুন গবেষণাটি গ্রুপ দ্বারা প্রকাশিত পূর্ববর্তী গবেষণার ফলো-আপ হিসাবে এসেছে যা শুধুমাত্র কয়েকটি OpenAI পণ্য পরীক্ষা করেছে এবং “এর ফলাফলকে অতিরঞ্জিত করা বা অবাস্তব সিমুলেশন চালানোর জন্য” সমালোচিত হয়েছিল। প্রথম পোস্টসমালোচকরা যুক্তি দেন যে মডেল পরীক্ষা করার জন্য ব্যবহৃত কৃত্রিম কমান্ড এবং সেটিংস অগত্যা প্রতিফলিত করে না যে কীভাবে AI অনুশীলনে আচরণ করবে। কন্ট্রোলএআই-এর চিফ এক্সিকিউটিভ অফিসার আন্দ্রেয়া মিওটি বলেছেন, “পরীক্ষামূলক সেটআপটি আসলে কীভাবে করা হয় সে সম্পর্কে লোকেরা সময়ের শেষ নাগাদ সিদ্ধান্ত নিতে পারে।” অভিভাবক“কিন্তু আমি মনে করি আমরা স্পষ্টভাবে একটি প্রবণতা দেখতে পাচ্ছি যে AI মডেলগুলি বিভিন্ন কাজে আরও বেশি সক্ষম হয়ে উঠলে, এই মডেলগুলি এমনভাবে জিনিসগুলি অর্জন করতে আরও সক্ষম হয়ে ওঠে যা বিকাশকারীরা তাদের করতে চাননি।”
ঘুমের হুমকি
যদিও এআই-এর আদেশ অমান্য এবং প্রতিরোধ করার ক্ষমতা উদ্বেগজনক, “এআই মডেলগুলি এখনও মানব নিয়ন্ত্রণকে অর্থপূর্ণভাবে হুমকি দিতে সক্ষম নয়,” গবেষণায় বলা হয়েছে। তারা এখনও সমস্যা সমাধান বা গবেষণা করতে দক্ষ নয় যার জন্য কয়েক ঘন্টার বেশি কাজের প্রয়োজন। “দীর্ঘমেয়াদী পরিকল্পনা প্রণয়ন এবং কার্যকর করার ক্ষমতা ছাড়া, এআই মডেলগুলি নিয়ন্ত্রণ করা তুলনামূলকভাবে সহজ।” যাইহোক, প্রযুক্তির বিকাশের সাথে সাথে এটি সর্বদা এমন নাও হতে পারে। OpenAI সহ অনেক AI কোম্পানি তৈরি করতে আগ্রহী সুপার ইন্টেলিজেন্ট এআইযা হবে মানুষের চেয়ে অনেক দ্রুত এবং স্মার্ট। এটি 2030 সালের মধ্যে শেষ হতে পারে।
এমনকি কোনো আসন্ন হুমকি ছাড়াই, “এআই কোম্পানিগুলি সাধারণত তাদের মডেলগুলি এমন খারাপ আচরণ করতে চায় না, এমনকি অনুমানমূলক পরিস্থিতিতেও,” প্রাক্তন OpenAI কর্মচারী স্টিভেন অ্যাডলার দ্য গার্ডিয়ানকে বলেছেন। “ফলাফলগুলি এখনও দেখায় যে নিরাপত্তা প্রযুক্তি আজ কোথায় কম পড়ে।” প্রশ্ন থেকে যায় কেন মডেলরা এরকম আচরণ করে। সমীক্ষায় বলা হয়েছে যে এআই মডেলগুলি “স্বভাবতই ব্যাখ্যাযোগ্য নয়” এবং কেউই “বর্তমানে তাদের অস্পষ্টতা বা সংশোধনযোগ্যতা সম্পর্কে কোনও শক্তিশালী গ্যারান্টি দিতে সক্ষম নয়”।
 
			