কল্পনা করুন, আপনি একজন বন্ধুর সাথে গভীর আলোচনা করছেন, কিন্তু হঠাৎ সেই বন্ধু অবমাননাকর বা ক্ষতিকর কিছু বলতে শুরু করল। আপনি তাকে বারবার বুঝানোর চেষ্টা করলেন, কিন্তু সে থামল না। এমন পরিস্থিতিতে, আপনি কি চাইবেন যে আপনার বন্ধু নিজেই সেই কথোপকথন বন্ধ করে দিক? এমনই একটি নতুন ফিচার নিয়ে এসেছে অ্যানথ্রপিক (Anthropic) তাদের ক্লড (Claude) AI চ্যাটবটের জন্য।
অ্যানথ্রপিকের ক্লড অপাস ৪ এবং ৪.১ মডেলগুলো এখন ‘হানিকর বা অবমাননাকর ব্যবহারকারীর সাথে’ কথোপকথন বন্ধ করার ক্ষমতা পেয়েছে। এই ফিচারটি মূলত তখন ব্যবহৃত হবে যখন ব্যবহারকারী বারবার AI-কে ক্ষতিকর বা অবমাননাকর কিছু তৈরি করতে বলবে, এবং AI বারবার তা প্রত্যাখ্যান করার পরও ব্যবহারকারী থামবে না। এমন পরিস্থিতিতে, AI নিজেই সেই কথোপকথন বন্ধ করে দেবে।
AI-র ‘অভ্যন্তরীণ সুস্থতা’ রক্ষায়
অ্যানথ্রপিক জানিয়েছে, এই ফিচারটি AI-এর ‘অভ্যন্তরীণ সুস্থতা’ রক্ষায় প্রবর্তিত হয়েছে। ক্লড AI পরীক্ষায় দেখা গেছে যে, ক্ষতিকর বিষয়বস্তু তৈরি করতে বললে AI ‘স্পষ্ট উদ্বেগ’ প্রকাশ করে এবং এমন কথোপকথন শেষ করার প্রবণতা দেখায়। এই ফিচারটি শুধুমাত্র তখনই কার্যকর হবে যখন AI বারবার চেষ্টা করবে ব্যবহারকারীকে সঠিক পথে পরিচালিত করতে, কিন্তু ব্যবহারকারী তা উপেক্ষা করবে।
ব্যবহারকারীর জন্য কী পরিবর্তন আসবে?
যদি AI একটি কথোপকথন বন্ধ করে দেয়, তবে সেই থ্রেডে আর নতুন বার্তা পাঠানো সম্ভব হবে না। তবে, ব্যবহারকারী নতুন একটি চ্যাট শুরু করতে পারবেন, আগের বার্তাগুলো সম্পাদনা করতে পারবেন, বা পূর্ববর্তী বার্তাগুলো পুনরায় চেষ্টা করতে পারবেন। অ্যানথ্রপিক নিশ্চিত করেছে যে, এই ফিচারটি ‘অত্যন্ত বিরল’ পরিস্থিতিতে ব্যবহৃত হবে, এবং এটি সাধারণ ব্যবহারকারীদের জন্য প্রভাব ফেলবে না।
আরো পড়ুন:
Windows 11-এর ডার্ক মোডে আসছে বড় আপডেট
আত্মহত্যা বা অন্যদের ক্ষতি করার ইঙ্গিত দিলে কী হবে?
যদি ব্যবহারকারী আত্মহত্যা বা অন্যদের ক্ষতি করার ইঙ্গিত দেন, তবে AI সেই কথোপকথন বন্ধ করবে না। এমন পরিস্থিতিতে, AI সহায়ক প্রতিক্রিয়া প্রদান করবে এবং অ্যানথ্রপিকের সহযোগী প্রতিষ্ঠান থ্রুলাইন (Throughline)-এর সাথে সমন্বয় করে উপযুক্ত সহায়তা প্রদান করবে।
AI-এর নীতিমালা ও নিরাপত্তা
অ্যানথ্রপিক তাদের ক্লড AI-এর ব্যবহার নীতিমালা আপডেট করেছে, যাতে বায়োলজিক্যাল, নিউক্লিয়ার, কেমিক্যাল বা রেডিওলজিক্যাল অস্ত্র তৈরি, ক্ষতিকর কোড তৈরি বা নেটওয়ার্কের দুর্বলতা খুঁজে বের করার মতো কার্যক্রম নিষিদ্ধ করা হয়েছে। এই পদক্ষেপটি AI-এর নিরাপদ ব্যবহার নিশ্চিত করতে এবং সম্ভাব্য ক্ষতিকর পরিস্থিতি এড়াতে নেওয়া হয়েছে।
ডিসক্লেইমার: এই আর্টিকেলটি বিভিন্ন অনলাইন সূত্র থেকে সংগৃহীত তথ্যের ভিত্তিতে প্রস্তুত করা হয়েছে এবং এটি শুধুমাত্র তথ্যের উদ্দেশ্যে।