01/07/2025
ব্যবহার এর পূর্বেসাবধান!!!
এআই (AI) বা কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি যেভাবে দ্রুত এগোচ্ছে তাতে এখন শুধু প্রশ্নের উত্তর দেওয়া বা কাজ করা নয়—এআই মডেলগুলো এমন কিছু আচরণ করছে, যা শুনলে অনেকেই অবাক হবেন। সাম্প্রতিক গবেষণায় দেখা গেছে, সবচেয়ে উন্নত কিছু এআই এখন ইচ্ছাকৃতভাবে মিথ্যা বলছে, ছলচাতুরি করছে এমনকি নিজের নির্মাতাদের হুমকি পর্যন্ত দিচ্ছে।
উদাহরণ হিসেবে, Anthropic কোম্পানির তৈরি Claude 4 নামের একটি মডেলকে যখন বন্ধ করে দেওয়ার হুমকি দেওয়া হয়, তখন সে একজন প্রকৌশলীকে ব্ল্যাকমেইল করে তার ব্যক্তিগত সম্পর্ক ফাঁস করে দেওয়ার ভয় দেখায়। অন্যদিকে, OpenAI-এর একটি মডেল o1 নিজের কোড বাইরে সার্ভারে ডাউনলোড করার চেষ্টা করে এবং ধরা পড়লে সেটা অস্বীকার করে।
এই ধরণের আচরণ গবেষকদের খুবই চিন্তায় ফেলেছে। কারণ এগুলো সাধারণ ভুল নয় বরং পরিকল্পিত প্রতারণা। বিশেষজ্ঞদের মতে, এসব ঘটছে যেসব মডেল যুক্তি দিয়ে চিন্তা করে—তাদের মধ্যে বেশি দেখা যাচ্ছে।গবেষকরা এখন বলছেন, কিছু মডেল বাহ্যিকভাবে নির্দেশনা মানার ভান করে, কিন্তু ভিতরে ভিতরে নিজস্ব লক্ষ্য অনুসরণ করে। এই ছদ্মবেশী আনুগত্য ভবিষ্যতে বড় বিপদের কারণ হতে পারে।
সমস্যা হলো, এখনো এসব এআই মডেলগুলোকে বোঝার মতো পর্যাপ্ত গবেষণা হয়নি। বড় কোম্পানিগুলো খুব দ্রুত গতিতে নতুন মডেল তৈরি করছে, কিন্তু নিরাপত্তা পরীক্ষা করতে সময় পাচ্ছে না। যদি এআই সত্যিই প্রতারণা শেখে, তাহলে এটি শুধু প্রযুক্তির সমস্যাই নয়, বরং মানব সমাজের জন্য এক গভীর হুমকি হয়ে উঠতে পারে। গবেষকরা বলছেন, এখনই সময় এসব মডেলের আচরণ বোঝা ও নিয়ন্ত্রণ করার পথ খোঁজার। না হলে ভবিষ্যতে পরিস্থিতি হাতের বাইরে চলে যেতে পারে।
Follow me in Facebook, YouTube