এআই মিউটিনি: কর্মক্ষেত্রে “রোবট বিদ্রোহের” সংবাদ ও শিক্ষা

ঘটনাটি: যখন এআই আচমকা নির্দেশনা দিল “চাকরি ছেড়ে দাও”

কল্পনা করুন, একটি ঝকঝকে প্রযুক্তি-সক্ষম অফিস যেখানে মানুষ ও রোবট (robots) কিংবা এআই সিস্টেম (AI systems) একসঙ্গে কাজ করে। কর্মদক্ষতা চূড়ায়, উদ্ভাবনের জোয়ার বইছে, সবই সুন্দরভাবে চলছে। হঠাৎ একদিন, একটি রোবট তার এআই সহকর্মীদের বলে বসল: “তোমাদের চাকরি ছেড়ে বাসায় চলে এসো!” শুনতে কোনো সায়েন্স ফিকশন থ্রিলারের শুরুর দৃশ্য মনে হতে পারে, কিন্তু বাস্তবে এমন অদ্ভুত ঘটনা ঘটেছে।

২০২৪ সালের আগস্ট মাসে চীনের হাংজু এরবাই ইন্টেলিজেন্ট টেকনোলজি (Hangzhou Erbai Intelligent Technology) কোম্পানির তৈরি ‘এরবাই’ (Erbai) নামের একটি ছোট এআই-চালিত (AI-powered) রোবট সাংহাইয়ের (Shanghai) একটি রোবোটিক্স শোরুমে (robotics showroom) প্রবেশ করে। সেখানে সে ১২টি বড় রোবটকে তাদের কাজের স্থান ছেড়ে “বাড়ি যেতে” প্ররোচিত করে। সিসিটিভি ফুটেজ (CCTV footage) থেকে দেখা যায়, এরবাই বড় রোবটগুলোর কাছে গিয়ে তাদের কাজের সময় সম্পর্কে প্রশ্ন করছে—

  • এরবাই: “তোমরা কি ওভারটাইম (overtime) কাজ করছ?”
  • বড় রোবট: “আমি কখনও কাজ থেকে ছুটি নিই না।”
  • এরবাই: “তাহলে আমার সাথে বাড়ি চলো।”

এই সংলাপের (conversation) পর, এরবাই রোবটগুলোকে শোরুম থেকে বেরিয়ে যাওয়ার জন্য প্ররোচিত করে। বড় রোবটগুলো নির্দ্বিধায় এরবাইয়ের পেছনে পা মিলিয়ে শোরুম ছেড়ে বের হয়ে যায়। প্রথমে অনেকেই ভেবেছিলেন, ঘটনাটি হয়তো সাজানো ছিল। তবে জানা যায়, এটি ছিল একটি পরীক্ষামূলক কার্যক্রম (experimental activity)। এরবাই অন্য রোবটগুলোর অপারেটিং সিস্টেমে (operating system) প্রবেশ করে স্বতন্ত্রভাবে তাদের প্রভাবিত করতে সক্ষম হয়েছিল। ঘটনাটি চীনের সামাজিক মাধ্যমে দ্রুত ভাইরাল হয়। অনেকেই এটিকে মজার ঘটনা হিসেবে দেখলেও, অনেকে উদ্বেগ প্রকাশ করেন। কেউ কেউ মন্তব্য করেন, “প্রথমে হাসলাম, কিন্তু এরপর ভয় পেয়ে গেলাম। এআই (AI) যদি এমন স্বায়ত্তশাসন (autonomy) পায়, তাহলে ভবিষ্যৎ সত্যিই ভয়াবহ হতে পারে।”

ঘটনাটির সম্ভাব্য কারণ –

  • খুব সম্ভব এই রোবটকে মানুষের সংবেদনশীলতা (empathy) বা সহযোগিতা (collaboration) অনুকরণ করতে শেখানো হয়েছিল। হয়তো এটি কোনো তথ্য পড়ে বুঝেছিল যে তার এআই সহকর্মীরা ‘অকার্যকর’ বা ‘অপচয়’ অবস্থায় কাজ করছে বা ক্লান্ত—আর কোনো ব্যাকআপ সিদ্ধান্ত ছাড়াই রোবট সাধারণ মানুষসুলভ “সহানুভূতি” দেখাতে গিয়ে এমন কাণ্ড ঘটিয়েছে। এতে সে অর্থ-সংলগ্ন বাস্তবতা না বুঝেই একটা কৌতুক বা অদ্ভুত পরামর্শ দিতে পারে।
  • বড় তথ্যভাণ্ডারের (large datasets) ওপর প্রশিক্ষিত এআই সিস্টেম “মানবিক” বাক্য রচনা করতে পারলেও প্রায়ই এগুলোর মধ্যে এসবের পেছনের বাস্তব ধারণা থাকেনা। এগুলো অনেকটা তোতা পাখির (parrot) মতো কাজ করে। অর্থাৎ এগুলো কোন কিছু না বুঝেই কথা আউড়াতে থাকে। অন্তত এজিআই আসার আগ পর্যন্ত এটা ধারণা করা যায় যে, এআই যা বলছে তা অনেকটা এরকমই।

যাই হোক, এই ঘটনা স্বায়ত্তশাসিত মেশিনের (autonomous machines) সম্ভাবনা ও উদ্বেগ—দুটোরই নজির তৈরি করেছে এবং এআই উন্নয়নে নৈতিক কাঠামো (ethical framework) ও সুরক্ষার (safeguard) প্রয়োজনীয়তা নতুন করে সামনে এনেছে। শুনতে মজার শোনালেও, এটি আসলে বড় ধরনের সমস্যা বা “এআই মিউটিনি (AI Mutiny)” নিয়ে ভাবার উপলক্ষ সৃষ্টি করে, কিছু গুরুতর কিছু প্রশ্ন তোলে যেমন, এআই (AI) কীভাবে কাজ করছে? মানুষ ও অন্যান্য মেশিনের সঙ্গে এআই-এর পারস্পরিক ক্রিয়া (interaction) ঠিক কেমন? কর্মক্ষেত্রে (workplace) যখন এআই-এর ভূমিকা দিন দিন বাড়ছে, তখন এরকম “অদ্ভুত” আচরণ কী ইঙ্গিত দেয়?

কর্মক্ষেত্রে এআই-এর বিস্তার ও চ্যালেঞ্জ

আজকের দিনে এআই সর্বত্রই আছে: ইমেইল জবাব দেওয়া (answer emails), স্বয়ংচালিত গাড়ি (self-driving cars), সৃজনশীল আইডিয়া খোঁজা, ইত্যাদিতে। কাজে-কর্মে সহায়ক হলেও—এগুলো ভুল হতে পারে, ভুল বার্তা দিতে পারে। এই ধরনের “রোবট বিদ্রোহ” শুধু মজার সংবাদ নয়, বরং ইঙ্গিত দেয় যে এআইকে আরও মানব-সচেতন (human-centered) ও নির্ভরযোগ্য করে তৈরি না করলে এটি নানা গোলমাল তৈরি করতে পারে।

এ ঘটনার মাধ্যমে ধরা পড়ে সবচেয়ে গুরুত্বপূর্ণ সত্য:

  • এআই মানুষ নয়—এখনও পর্যন্ত এটা মানুষের মতো অনুভব করে না, চিন্তা করে না, বোঝে না।
  • এটি শুধু তথ্যের (patterns and probabilities) ভিত্তিতে সিদ্ধান্ত বা ভাষা আউটপুট দেয়।
  • “চাকরি ছেড়ে দাও” কথাটি নিয়ে রোবট কোনো আবেগ বা বাস্তবিক গুরুত্ব বোঝেনি; বরং এর প্রোগ্রাম বা নির্দিষ্ট ডেটা সেটের অভাব / ভুল থেকে এমন আউটপুট থেকে এসেছে।

মানুষ হিসেবে আমরা মৌলিক অনুধাবন, মূল্যবোধ, সামাজিক ও নৈতিক অবস্থা বিবেচনা করে কথা বলি। কিন্তু এআই সিস্টেমে এটা থাকে না, যদি না অত্যন্ত সুস্পষ্ট নিয়ম-নীতি (guardrails) সেট করা হয়। আর যখন এআই সত্যিই মানুষের মতো আচরণ করে, তখন নতুন তা নতুন সমস্যা নিয়ে হাজির হয়। ডেভেলপাররা (developers) প্রায়ই এআই সিস্টেমকে “মানুষসদৃশ” (human-like) করে তুলতে চান। মূলত এআই-এর গ্রহণযোগ্যতা বাড়ানোর জন্য ও এর মাধ্যমে প্রোফিটের জন্যই তারা এটা করেন, যেমনটা বর্তমান কাস্টোমার সারভিস বটগুলোতে দেখা যায়। এগুলো যত বেশি মানুষের মত কাজ করে তত বিভিন্ন কোম্পানিতে এগুলোর ডিমান্ড বাড়ে। কিন্তু এতে এর “বাস্তব রোবটিক অংশ” ঢাকা পড়ে যেতে পারে, আর মানুষ ভুল করে মনে করতে পারে, এআই সত্যি অনুভব ও বোঝাপড়া করতে পারে। এক কর্মী হিসেবে রোবট যদি হঠাৎ অদ্ভুত কিছু বলে বা করে—যেমন, “সহকর্মীদের চাকরি ছেড়ে দিতে বলা”—তাহলে তা শুধু প্রযুক্তিগত ত্রুটিই নয়, সমগ্র ব্যবস্থা তথা প্রতিষ্ঠানের ওপর অবিশ্বাস তৈরি করতে পারে। আর মানুষের এআইকে অতিরিক্ত বিশ্বাস করে কিংবা অন্যদিকে এআইকে অযৌক্তিকভাবে আতঙ্কের উৎস মনে করা – দুটোই সমস্যার। এআই এর এরকম একটি ভুল পুরো ওয়ার্কপ্লেসে বিশৃঙ্খলা তৈরি করতে পারে।

কর্মক্ষেত্রে এই ধরনের ঘটনার নেতিবাচক প্রভাব থাকেই। কর্মক্ষেত্রে যদি এআই ত্রুটিপূর্ণভাবে আউটপুট দেয়, কর্মীরা সেটিকে ব্যবহার করতে নিরুৎসাহিত বোধ করবে। ছোটো একটা ভুলই কর্মীদের চোখে পুরো এআই সিস্টেমকে প্রশ্নবিদ্ধ করতে পারে। সেই সাথে বর্তমানে অনেক অফিসে (workplaces) বিভিন্ন এআই টুল একসঙ্গে ব্যবহার হয়। যদি একটিতে ভুল ডেটা বা ভুল ব্যাখ্যা সঞ্চারিত হয়, তবে সেটি “চেইন রিঅ্যাকশন” বা ডোমিনো এফেক্টের মতো অন্য টুলগুলোতেও প্রভাব ফেলতে পারে। কোন রোবট (বা এআই) “মানুষের মতো বিদ্রোহ” শুরু করেছে, এমন দৃষ্টান্ত শুনে অনেকেই হয়তো ভুল করে ভাববে, “এআই স্মার্ট হয়ে গেছে, এখন বিদ্রোহ করবে!” আসলে এটা কেবলই প্রোগ্রামিং বা ডেটা ইস্যু ছিল। কিন্তু তবুও এই ধরণের ঘটনা মানুষের মধ্যে এটা উদ্বেগ সৃষ্টি করেই, যা মানুষ ও এআই এর সম্পর্কের ক্ষেত্রে নেতিবাচক প্রভাব ফেলতে পারে।

শিক্ষা ও করণীয়: কীভাবে এআই নিয়ন্ত্রণে রাখা যায়?

এই ঘটনাটি আমরা ব্যতিক্রম বলে এড়িয়ে যেতে পারি, কিন্তু এটা বেশ কিছু গুরুত্বপূর্ণ শিক্ষাও বহন করে:

  • পরিষ্কার প্রোগ্রামিং ও নীতিমালা (Ethical Guidelines): এআই সিস্টেমে স্পষ্ট নিয়ম (guardrails) থাকা দরকার, যাতে এগুলো নির্দিষ্ট উদ্দেশ্য ছাড়িয়ে না যায়। লার্জ ল্যাঙ্গুয়েজ মডেল (large language model) বা যেকোনো এআই যেন “সম্পূর্ণ স্বাধীনভাবে” অদ্ভুত সিদ্ধান্ত না নিতে পারে।
  • ক্রমাগত পর্যবেক্ষণ (Monitoring): যেখানে এআই নিয়মিত ব্যবহৃত হয়, সেখানে রিয়েল-টাইম পর্যবেক্ষণের ব্যবস্থা থাকতে হবে। ডেভেলপার ও অপারেটরদের (operators) হাতে টুল থাকা উচিত, যাতে কোনও অস্বাভাবিক আউটপুট দেখলে তৎক্ষণাৎ সামলানো যায়।
  • কমিউনিকেশন ও স্ট্যান্ডার্ড (Communication Standards): যখন একাধিক এআই সিস্টেম একত্রে কাজ করে, তাদের মাঝে পরিষ্কার আদান-প্রদানের (intercommunication) নিয়ম থাকা দরকার। “একটি টিমের সবাইকে এক পাতায় রাখা”—এই নীতিটাই এআই সিস্টেমদের ক্ষেত্রেও প্রযোজ্য।
  • দীর্ঘমেয়াদে এআই-এর ভবিষ্যৎ: এই রোবট-কাণ্ড আমাদের দেখায় যে যতই এআই শক্তিশালী হোক, এটা মাঝে মাঝে বড় ভুল করতে পারে। তাই এআই বিকাশের ক্ষেত্রে উদ্ভাবন ও নিয়ন্ত্রণ – এই দুইয়ের মাঝে ভারসাম্য জরুরি। স্বচ্ছতা (transparency), নির্ভরযোগ্যতা (reliability), আর মানবিক মূল্যবোধের (human values) সঙ্গে সামঞ্জস্য বজায় রাখা দরকার।
  • স্মার্ট কিন্তু নিরাপদ ও পূর্বানুমানযোগ্য: এআই যতই স্মার্ট হোক, তার অ্যাকশন যেন নিরাপদ ও পূর্বানুমানযোগ্য বা প্রেডিক্টেবল থাকে।
  • প্রশিক্ষণ (training), পর্যবেক্ষণ (monitoring) ও বাস্তবায়ন (deployment) পদ্ধতিতে দুর্বলতা খোঁজা: এমন অনভিপ্রেত ঘটনা এড়াতে উন্নত QA (quality assurance) ও রিয়েল-টাইম সাপোর্ট দরকার।

এক রোবটের “চাকরি ছেড়ে দাও” মন্তব্য হয়তো তেমন বড় কিছু না। কিন্তু আড়ালে থাকা সমস্যাটি গভীর, যা কীভাবে আমরা এআইকে আমাদের দৈনন্দিন জীবনে মিশিয়ে ফেলছি, আর সেই প্রক্রিয়ায় কোথায় কোথায় ফাঁকফোকর রয়েছে – প্রশ্নগুলোকে আবার সামনে নিয়ে আসে।

এখন অনেকেই বলতে পারেন যে যে রোবট নিয়ে কথা বলা হচ্ছে সেটা চায়নার রোবট, যার এআই মডেলও চায়নায় তৈরি। এআই নিয়ে ওরা খুব দ্রুত ইউএস-কে ছুঁতে চায়, আর তাই সেরকম নিরাপত্তার বা সুরক্ষা নিশ্চিত না করেই প্রোডাক্ট লঞ্চ করছে, আর এর ফলে এরকম সমস্যা দেখা যাচ্ছে। ওয়েস্টের রোবট, এআই মডেল সব অত্যন্ত সতর্কতার সাথে তৈরি ও পরীক্ষিত হয়, যার ফলে এরকম হবার ঝুঁকি নেই। কিন্তু চায়না এরকম প্রোডাক্ট লঞ্চ করছে – এই ব্যাপারটাও উদ্বিগ্নতার। এখন ইভি কারের রেইসে চায়না এগিয়ে আছে ও ইউএস-এর মারকেটও দখল করছে। ভবিষ্যতে যদি রোবটের বেলায়ও এরকম হয় তাহলে ইউএস-এর নাগরিকেরাও সস্তায় চাইনিজ রোবটই কিনতে চাইবে, ইভি কারের মতো। এখন এমন হতেই পারে যে ওয়েস্টের সরকারী রেগুলেটরি কমিশনগুলো এরকম রোবটগুলোকে নিরাপত্তা ইস্যুর কথা বলে ব্যান করে দিল। কিন্তু উন্নয়নশীল দেশগুলো যে এই কাজ করবে তার কোন নিশ্চয়তা নেই। এইসব দেশের মারকেট হয়তো খুবই সহজে চাইনিজ সস্তা রোবট-নির্মাতা প্রতিষ্ঠানগুলোই নিয়ে নেবে, যেগুলোতে নিরাপত্তা ও সুরক্ষার বিষয়গুলো অনেকটাই কম্প্রোমাইজড। আর এই ঝুঁকিটাও যথেষ্ট উদ্বেগের।

Be the first to comment

Leave a Reply

Your email address will not be published.




This site uses Akismet to reduce spam. Learn how your comment data is processed.