Friday, September 26, 2025
HomeClaude AI এখন বন্ধ করতে পারবে ‘ব্যক্তিগতভাবে ক্ষতিকর বা অপমানজনক’ কথোপকথন

Claude AI এখন বন্ধ করতে পারবে ‘ব্যক্তিগতভাবে ক্ষতিকর বা অপমানজনক’ কথোপকথন

কল্পনা করুন, আপনি একজন বন্ধুর সাথে গভীর আলোচনা করছেন, কিন্তু হঠাৎ সেই বন্ধু অবমাননাকর বা ক্ষতিকর কিছু বলতে শুরু করল। আপনি তাকে বারবার বুঝানোর চেষ্টা করলেন, কিন্তু সে থামল না। এমন পরিস্থিতিতে, আপনি কি চাইবেন যে আপনার বন্ধু নিজেই সেই কথোপকথন বন্ধ করে দিক? এমনই একটি নতুন ফিচার নিয়ে এসেছে অ্যানথ্রপিক (Anthropic) তাদের ক্লড (Claude) AI চ্যাটবটের জন্য।

অ্যানথ্রপিকের ক্লড অপাস ৪ এবং ৪.১ মডেলগুলো এখন ‘হানিকর বা অবমাননাকর ব্যবহারকারীর সাথে’ কথোপকথন বন্ধ করার ক্ষমতা পেয়েছে। এই ফিচারটি মূলত তখন ব্যবহৃত হবে যখন ব্যবহারকারী বারবার AI-কে ক্ষতিকর বা অবমাননাকর কিছু তৈরি করতে বলবে, এবং AI বারবার তা প্রত্যাখ্যান করার পরও ব্যবহারকারী থামবে না। এমন পরিস্থিতিতে, AI নিজেই সেই কথোপকথন বন্ধ করে দেবে।

AI-র ‘অভ্যন্তরীণ সুস্থতা’ রক্ষায়

অ্যানথ্রপিক জানিয়েছে, এই ফিচারটি AI-এর ‘অভ্যন্তরীণ সুস্থতা’ রক্ষায় প্রবর্তিত হয়েছে। ক্লড AI পরীক্ষায় দেখা গেছে যে, ক্ষতিকর বিষয়বস্তু তৈরি করতে বললে AI ‘স্পষ্ট উদ্বেগ’ প্রকাশ করে এবং এমন কথোপকথন শেষ করার প্রবণতা দেখায়। এই ফিচারটি শুধুমাত্র তখনই কার্যকর হবে যখন AI বারবার চেষ্টা করবে ব্যবহারকারীকে সঠিক পথে পরিচালিত করতে, কিন্তু ব্যবহারকারী তা উপেক্ষা করবে।

ব্যবহারকারীর জন্য কী পরিবর্তন আসবে?

যদি AI একটি কথোপকথন বন্ধ করে দেয়, তবে সেই থ্রেডে আর নতুন বার্তা পাঠানো সম্ভব হবে না। তবে, ব্যবহারকারী নতুন একটি চ্যাট শুরু করতে পারবেন, আগের বার্তাগুলো সম্পাদনা করতে পারবেন, বা পূর্ববর্তী বার্তাগুলো পুনরায় চেষ্টা করতে পারবেন। অ্যানথ্রপিক নিশ্চিত করেছে যে, এই ফিচারটি ‘অত্যন্ত বিরল’ পরিস্থিতিতে ব্যবহৃত হবে, এবং এটি সাধারণ ব্যবহারকারীদের জন্য প্রভাব ফেলবে না।

আরো পড়ুন:

Windows 11-এর ডার্ক মোডে আসছে বড় আপডেট

আত্মহত্যা বা অন্যদের ক্ষতি করার ইঙ্গিত দিলে কী হবে?

যদি ব্যবহারকারী আত্মহত্যা বা অন্যদের ক্ষতি করার ইঙ্গিত দেন, তবে AI সেই কথোপকথন বন্ধ করবে না। এমন পরিস্থিতিতে, AI সহায়ক প্রতিক্রিয়া প্রদান করবে এবং অ্যানথ্রপিকের সহযোগী প্রতিষ্ঠান থ্রুলাইন (Throughline)-এর সাথে সমন্বয় করে উপযুক্ত সহায়তা প্রদান করবে।

AI-এর নীতিমালা ও নিরাপত্তা

অ্যানথ্রপিক তাদের ক্লড AI-এর ব্যবহার নীতিমালা আপডেট করেছে, যাতে বায়োলজিক্যাল, নিউক্লিয়ার, কেমিক্যাল বা রেডিওলজিক্যাল অস্ত্র তৈরি, ক্ষতিকর কোড তৈরি বা নেটওয়ার্কের দুর্বলতা খুঁজে বের করার মতো কার্যক্রম নিষিদ্ধ করা হয়েছে। এই পদক্ষেপটি AI-এর নিরাপদ ব্যবহার নিশ্চিত করতে এবং সম্ভাব্য ক্ষতিকর পরিস্থিতি এড়াতে নেওয়া হয়েছে।

ডিসক্লেইমার: এই আর্টিকেলটি বিভিন্ন অনলাইন সূত্র থেকে সংগৃহীত তথ্যের ভিত্তিতে প্রস্তুত করা হয়েছে এবং এটি শুধুমাত্র তথ্যের উদ্দেশ্যে।

সূত্র

Ratan Datta
Ratan Datta
আমি রতন দত্ত "স্টার শান্ত" ওয়েবসাইটে ম্যানেজিং ও এডিটর হিসেবে নিয়োজিত রয়েছি। আমি খেলাধুলা, অটোমোবাইল, বিনোদন ও বিভিন্ন বিষয় লেখালেখি করি এবং আমার লক্ষ্য আপনাকে গুরুত্বপূর্ণ তথ্য ও সহজে বোঝানো।

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -

সর্বশেষ নিউজ