এআই এর বিভিন্ন রকম হুমকি ও নীতি-নৈতিকতা

ভূমিকা

কৃত্রিম বুদ্ধিমত্তা বা এআই এর ব্যবহার এখন অনেক বেশি, বিভিন্ন ক্ষেত্রেই এর ব্যবহার হচ্ছে। আর এর ব্যবহার যত বাড়ছে, ততই বাড়ছে এর বিভিন্ন হুমকি ও এটি ঘিরে বিভিন্ন নীতি-নৈতিকতার প্রশ্ন। আমাদের বহুল পরিচিত ইনফ্লুয়েন্সার ফেনোমেনার কথাই ধরুন। এখানেও ঢুকে গেছে এআই সম্পর্কিত হুমকি ও নীতির বিষয়। ২০২৪ সালে ইনস্টাগ্রামে এআই দ্বারা তৈরি ইনফ্লুয়েন্সারদের (influencers) সংখ্যা হঠাৎ বেড়ে যায়। এই মডেলগুলো তৈরি করা হয় এআই-জেনারেটেড মুখের ছবি এবং বাস্তব মডেলদের দেহের চুরি করা ছবি ও ভিডিও দিয়ে। মূল কন্টেন্ট নির্মাতারা তাদের ছবি ব্যবহারের জন্য কোনো সম্মতি দেননি। তারা কোনো ধরনের ক্ষতিপূরণও পাননি।[৫০]

বিভিন্ন শিল্প বা ইন্ডাস্ট্রির কর্মীরা প্রতিদিনই এআই ব্যবহারের নৈতিক প্রশ্নের মুখোমুখি হন। যেমন, যুক্তরাজ্যভিত্তিক আইন সংস্থা অ্যাশারস্ট (Ashurst) একটি পরীক্ষায় তিনটি এআই সিস্টেম ব্যবহার করে। এই সিস্টেমগুলো বিভিন্ন ডকুমেন্ট পর্যালোচনার গতি নাটকীয়ভাবে বৃদ্ধি করে।[৭০] কিন্তু অভিজ্ঞ আইনজীবীরা যেসব সূক্ষ্ম আইনি বিশদ ধরতে পারেন, তা এআই সঠিকভাবে ধরতে পারেনি। একইভাবে, সাংবাদিকদের এআই ব্যবহার করে গবেষণার সারসংক্ষেপ তৈরি করতে হয়। তাদের তথ্য যাচাইয়ের কঠোরতার সাথে এআই এর এই সুবিধার ভারসাম্য রাখতে হয়।

এই উদাহরণগুলো উদ্ভাবন এবং নৈতিকতার মধ্যে ক্রমবর্ধমান উত্তেজনার কথা তুলে ধরে। বিভিন্ন রকম প্রশ্ন উত্থাপিত হয় যেমন, যাদের কাজ এআই সম্পর্কিত প্রযুক্তির ভিত্তি স্থাপন করে তাদের এআই ব্যবহারকারীদের প্রতি কী কী দায়িত্ব রয়েছে? বা কিভাবে আমরা এমন একটি পৃথিবীতে কাজ করব, যেখানে এআই সৃজনশীলতার অর্থ এবং এতে মানুষের ভূমিকার ক্ষেত্রে নতুন চ্যালেঞ্জ সৃষ্টি করে?

আমরা যত বেশি এআই ব্যবহার করছি, এর উপর নির্ভরশীল হচ্ছি বা দৈনন্দিন জীবনে এআইকে অ্যাডপ্ট করছি, তত বেশি করে এর হুমকিগুলো আমাদের সামনে প্রকট হচ্ছে। আর এই হুমকি বহুমাত্রিক। বিভিন্নভাবে বিভিন্ন ক্ষেত্রে এই হুমকিগুলো দেখা দিচ্ছে। এখন, হুমকির সাথে নীতি ও নৈতিকতার সম্পর্ক থাকতে পারে। এই সম্পর্কটা তখন থাকে যখন বিভিন্ন নীতি অনুসরণ করার মাধ্যমে সেই হুমকিগুলোকে দূর করা যায়, বা অন্তত দূর করা সম্ভব বলে মনে হয়। এআই এর হুমকিগুলোও আসলে সেরকমই। আমরা, মানব সমাজ এই হুমকিগুলো দূর করার সামর্থ রাখি। আর তাই আমি ঠিক করেছি, এআই সম্পর্কিত হুমকিগুলোকে আলোচনা করবে নীতিদর্শনের ফ্রেমওয়ার্কে। দুটি প্রধান নীতিবিদ্যাগত সম্প্রদায়ের দৃষ্টিকোণ থেকে এআই নিয়ে নৈতিকতা ও হুমকির বিষয়গুলো আমরা দেখতে পারি – (১) ডিঅন্টোলজিকাল এথিক্স, এবং (২) পরিণামবাদ বা কনসিকুয়েনশিয়ালিজম।

ডিঅন্টোলজিকাল এথিক্স এবং অধিকার ও দায়িত্বের প্রশ্ন

একটা উদাহরণ দিয়েই শুরু করি। এআই সিস্টেম প্রায়ই বিশাল পরিমাণে মানব-সৃষ্ট কাজ বিশ্লেষণ করে শিখে থাকে। আর এর ফলে মানুষের সৃজনশীল অধিকারের ঐতিহ্যবাহী ধারণাটা ভেঙ্গে পড়ে। এখানে আসে নতুন চ্যালেঞ্জ। [৭১] যেমন, একজন আলোকচিত্রী বা ফটোগ্রাফার যার কাজ এআই মডেল প্রশিক্ষণের জন্য ব্যবহার করা হয়েছে, তিনি প্রশ্ন তুলতে পারেন তার শ্রম যথাযথ ক্ষতিপূরণ ছাড়াই ব্যবহার করা হয়েছে কি না। এর ফলে তার কাজের মৌলিক মালিকানা লঙ্ঘিত হয়েছে কি না। এগুলো হুমকি, আর এখানে যে নৈতিক প্রশ্নগুলো উত্থাপিত হচ্ছে সেগুলো ব্যক্তির অধিকারের ভিত্তিতেই তৈরি হচ্ছে।

ডিঅনটোলজিকাল এথিক্স (deontological ethics) মানুষের একে অপরের প্রতি মৌলিক দায়িত্ব, মানুষের অধিকার কী, তা নিয়ে প্রশ্ন তোলে।[১] এর ঠিক এবং ভুলের বিচার পরিণামের ওপর নির্ভর করে না। অর্থাৎ এআই এর বিভিন্ন রকম ব্যবহারের ফলে এর পরিণাম কী হবে সেটা বিবেচনা করে এই এথিক্স কী করণীয় বা করণীয় নয় তা ঠিক করেনা। বরং কী করা উচিৎ ও অনুচিৎ সেই ব্যাপারে পূর্বস্বীকৃত ধারণা থেকেই এটি ঠিক করে এআই নিয়ে কী করা উচিৎ ও উচিৎ নয়। এটি কৃত্রিম বুদ্ধিমত্তার (AI) ক্ষেত্রে প্রয়োগ করা হলে, মূল অধিকার এবং দায়বদ্ধতার ওপর গুরুত্ব দেওয়া হয়। যেমন, একজন আর্টিস্টের চিত্রকর্ম দিয়ে যদি তাকে না জানিয়ে কোন এআই মডেলকে ট্রেইন করা হয় তাহলে তাতে তার সম্পত্তির অধিকার লঙ্ঘিত হয়। কারও ছবি ব্যবহার করে যদি ডিপফেইক তৈরি করা হয় তবে তার প্রাইভেসির অধিকার লঙ্ঘিত হয়। এই মানবাধিকারের ব্যাপারগুলো আগে থেকেই ঠিক না ভুল নির্ধারিত। এআই ব্যবহারের ক্ষেত্রে কেবল এর প্রয়োগ করা হচ্ছে। এখন কোন ব্যক্তির ছবি চুরি করে বা তার চেহারা দিয়ে ডিপফেইক তৈরি করে যদি সমাজের বৃহত্তর কল্যাণও সাধন করা হয় তবুও তাতে সেই ব্যক্তির মানবাধিকার লঙ্ঘিতই হয়। আর তাই এটা ডিঅন্টোলজিকাল এথিক্স অনুসারে অন্যায়।

বেশ কিছু অপরাধ বা অন্যায় রয়েছে যেগুলো এআই আসার পর আরও বৃদ্ধি পাবার সম্ভাবনা তৈরি হয়েছে। এগুলো এআই আসার আগে থেকেই অন্যায়, অন্যায্য, কেননা তাতে ব্যক্তি মানুষের অধিকার লঙ্ঘিত হয়। পরিণাম বিবেচনা ছাড়াই এগুলো অন্যায়। এআই আসার পর এগুলো আরও বৃদ্ধি পেয়েছে ও বৃদ্ধির সম্ভাবনা দেখা দিয়েছে যেগুলো এআই সম্পর্কিত হুমকির সৃষ্টি করেছে। এগুলোর উদাহরণ হচ্ছে – ভুল তথ্য বা মিসইনফরমেশন ছড়ানো, বায়াস ও বৈষম্যের সৃষ্টি, এবং প্রাইভেসির অধিকারের মতো মানবাধিকার লঙ্ঘন। এআই জনপ্রিয় ও অ্যাডপশনের পর এই সংক্রান্ত অন্যায়সমূহের হুমকি অনেক বৃদ্ধি পেয়েছে, এবং এগুলো নিয়ন্ত্রণ করারও প্রয়োজনীয়তা দেখা দিয়েছে। আর এগুলোর সমাধানেও পথ দেখাতে পারে সেই ডিঅন্টোলজিকাল এথিক্স, যা দিয়ে ব্যক্তির অধিকার প্রতিষ্ঠা ও দায়িত্বসমূহের পালন নিশ্চিত করার মাধ্যমে সমস্যাগুলো সমাধান করতে হবে।

ভুল তথ্য বা মিসইনফরমেশন ছড়ানো

ভুল তথ্য তো অনেক ক্ষেত্রেই ছড়ানো হতে পারে। কিন্তু এটি সবচেয়ে বেশি হুমকির সৃষ্টি করে নির্বাচনী প্রচারণায়। কেননা এখানে ভুল তথ্য ছড়ানোটা মানুষের রাজনৈতিক অধিকার ও ক্ষমতাকে ক্ষুণ্ণ করে। আর তাই নির্বাচনী প্রচারণায় এআই ব্যবহার করে ভুল তথ্য ছড়ানোর ঝুঁকিটাই বেশি আশঙ্কাজনক। এই ২০২৪ সাল মানব ইতিহাসের সবচেয়ে বড় নির্বাচনী বছর ছিল, কেননা এই বছরে ৭২টি দেশে ৩.৭ বিলিয়ন যোগ্য ভোটার ভোট দেওয়ার সুযোগ পায়। [২]

বিভিন্ন রাজনৈতিক দল যেভাবে পারে এআই ব্যবহার করেছে। জাপান [৩] এবং ক্যালিফোর্নিয়ার [৪] স্থানীয় সরকার, ভারতের প্রধানমন্ত্রী নরেন্দ্র মোদি [৫] এবং নিউ ইয়র্ক সিটির মেয়র এরিক অ্যাডামস [৬] এআই ব্যবহার করে তাদের ভাষণ বিভিন্ন ভাষায় অনুবাদ করেছেন, বৈচিত্র্যময় জনগোষ্ঠীর কাছে নিজেদের বক্তব্য পৌঁছে দেবার জন্য। মার্কিন রাজনীতিবিদ আসা হাচিনসন [৭], ডিন ফিলিপস [৮] এবং ফ্রান্সিস সুয়ারেজ [৯] তাদের প্রেসিডেন্সিয়াল প্রাইমারি প্রচারণায় নিজেদের চ্যাটবট ব্যবহার করেছেন। প্রান্তিক প্রার্থী বা ফ্রিঞ্জ ক্যান্ডিডেট জেসন পালমার [১০] আমেরিকান সামোয়ার প্রাইমারিতে জো বাইডেনকে পরাজিত করেন, যার পেছনে এআই-জেনারেটেড ইমেইল, টেক্সট, অডিও এবং ভিডিওর ব্যবহার একটি বড় ভূমিকা পালন করেছে। পাকিস্তানের সাবেক প্রধানমন্ত্রী ইমরান খান কারাগারে থেকে তার কণ্ঠের এআই ক্লোন ব্যবহার করে ভাষণ দিয়েছেন।[১১] কোয়িলার (Quiller) [১২] এবং টেক ফর ক্যাম্পেইনস [১৩] এর মতো কোম্পানি এআই-এর সাহায্যে তহবিল সংগ্রহের ইমেইল খসড়া তৈরি করছে। অন্যান্য এআই সিস্টেম প্রার্থীদের নির্দিষ্ট দাতাদের লক্ষ্য করে [১৪] ব্যক্তিগতকৃত বা পারসোনালাইজড বার্তা [১৫] পাঠাতে সহায়তা করছে। এআই অ্যাসিস্ট্যান্ট দিয়ে রাজনৈতিক বার্তা এবং কৌশল তৈরি করা [১৬], বিজ্ঞাপন তৈরি করা [১৭], ভাষণ খসড়া করা [১৮], ভোটারদের সাথে সংযোগ স্থাপন করার কাজ করা হয়েছে। [১৯]

অবস্থা যখন এই তখন অনেকেই ভয় করেছিলেন, ডিপফেক এবং অন্যান্য এআই ব্যবহার দ্বারা সৃষ্ট ভুল তথ্য গণতান্ত্রিক প্রক্রিয়াকে নষ্ট করে দেবে। এই বছরের শুরুতে পিউ (Pew) পরিচালিত এক জরিপে দেখা গেছে, আমেরিকানদের মধ্যে প্রায় আটগুণ বেশি মানুষ মনে করেছিলেন যে ২০২৪ সালের নির্বাচনে এআই প্রধানত খারাপ উদ্দেশ্যে ব্যবহৃত হবে। [২০] এআই (AI) দ্বারা সৃষ্ট মিসইনফরমেশন ও প্রোপাগান্ডা ছিলই। ২০২৩ সালের স্লোভাকিয়ার নির্বাচনের কয়েকদিন আগে একটি ভুয়া অডিও ছড়িয়ে পড়ে। [২১] ২০২৪ সালেও এ ধরনের ঘটনা বহুবার ঘটেছে। যুক্তরাষ্ট্রের প্রেসিডেন্সিয়াল নির্বাচনে একটি ভুয়া জো বাইডেনের কণ্ঠে রেকর্ড করা রোবোকল (robocall) করা হয়েছিল, যাতে নিউ হ্যাম্পশায়ারের ভোটারদের ডেমোক্রেটিক প্রাইমারিতে ভোট না দেওয়ার আহ্বান জানানো হয়। [২২] তবে এইসব ঘটনা ভোটের ফলাফলে কোনো বড় প্রভাব ফেলেছে বলে মনে হয় না। ভাইরাল ডিপফেক (deepfake) ছবি এবং ভিডিওও বিশেষ কোনো প্রভাব ফেলতে সক্ষম হয়নি। [২৩] এআই-কোম্পানিগুলোও এক্ষেত্রে ভূমিকা রেখেছে। ওপেনএআই (OpenAI) তার নিজস্ব এআই মডেল ব্যবহার করে একটি ইরানীয় বিদেশি প্রভাব প্রচারণা ব্যাহত করতে সক্ষম হয়েছে, যা মার্কিন প্রেসিডেন্ট নির্বাচনের আগে বিভেদ সৃষ্টির লক্ষ্যে পরিচালিত হয়েছিল। [২৪]

কিন্তু এখনও এআই ব্যবহার করে মিসিনফরমেশন বা প্রোপাগান্ডা ছড়িয়ে বড় রকমের বিপর্যয় আনা যায়নি বলে সামনেও যে আনা যাবে না তা নিশ্চিত করে বলা যায়না। মিসিনফরমেশন নিয়ন্ত্রণের জন্য অনেক পদক্ষেপই নেয়া হয়েছে। যেমন ওপেনএআই এর এআই মডেলগুলোর রাজনৈতিক ব্যবহারের উপর নিষেধাজ্ঞা আরোপ করেছে। [২৫] এটি রাজনৈতিক প্রার্থীদের ছবি তৈরি করার প্রায় ২.৫ লক্ষ অনুরোধ স্বয়ংক্রিয়ভাবে প্রত্যাখ্যান করেছে। [২৬] তবে কোম্পানির এই নিয়ন্ত্রণ অকার্যকর প্রমাণিত হয়েছে, কেননা বাস্তবে রাজনৈতিক ক্ষেত্রে এর ব্যবহার ব্যাপকভাবেই দেখা যচ্ছে।[২৫] তাই ব্যাপারে এখনও অনেক কাজ বাকি। এআই আরও শক্তিশালী এবং সক্ষম হওয়ার সাথে সাথে এটি রাজনীতির প্রতিটি ক্ষেত্রে ঢুকে পড়বে। তাতে হুমকিও বাড়বে। তাই টেক কোম্পানি ও রাষ্ট্র উভয়কেই এই ব্যাপারে গুরুত্ব দিতে হবে যাতে মিসিনফরমেশন ও প্রোপাগান্ডা নিয়ে ভবিষ্যতে কোন বিপর্যয়কর পরিস্থিতির সৃষ্টি না হয়। সেই সাথে এআই দিয়ে যে ভুল তথ্য খুব সহজেই ছড়ানো যেতে পারে এই ব্যাপারেও জনগণকে সচেতন করার জন্য বিভিন্ন মহলকে সক্রিয়ভাবে কাজ করতে হবে।

বায়াস ও বৈষম্যের সৃষ্টি

এআই ব্যবস্থায় সমতা, বৈচিত্র্য এবং অন্তর্ভুক্তির (EDI) দৃষ্টিভঙ্গি অন্তর্ভুক্ত করা এখন আর বিলাসিতা বা ঐচ্ছিক কিছু নয়। নারী, আদিবাসী, প্রতিবন্ধী, কৃষ্ণাঙ্গ এবং বর্ণিত জনগোষ্ঠী, 2SLGBTQ+ কমিউনিটি সহ কোন সংখ্যালঘু জনগোষ্ঠীকে যাতে এআই পক্ষপাতমূলক দৃষ্টিভঙ্গিতে না দেখে তা নিশ্চিত করা জরুরি। বিশেষ করে যখন এআই মানব সম্পদ [২৭] এবং নিয়োগ প্রক্রিয়ায় [২৮] গভীর প্রভাব ফেলছে।

মেশিন লার্নিং অ্যালগরিদম বড় ডেটাসেট থেকে প্যাটার্ন শিখে থাকে। কিন্তু এই ডেটাসেটগুলো প্রায়শই বিদ্যমান পক্ষপাত এবং অপ্রতুল প্রতিনিধিত্বকে প্রতিফলিত করে। [২৯] এর ফলে এআই ব্যবহারে পক্ষপাতের ঝুঁকি তৈরি হয়। এআই সিস্টেমগুলো অনিচ্ছাকৃতভাবে এই বায়াসগুলোকে শক্তিশালী করতে পারে। [৩০] ডেটা যে সবসময় নিরপেক্ষ থাকবে এমন কোন কথা নেই। ডেটা কিভাবে সংগ্রহ করা ও বিশ্লেষণ করা হচ্ছে তার ভিত্তিতে এটি পক্ষপাতদুষ্ট হয়ে উঠতে পারে। এর ফলে সেই ডেটাগুলো দিয়ে ট্রেইনড হওয়া এআই মডেলেরও বায়াস থেকে মুক্ত থাকা কঠিন হয়ে পড়ে। এর একটি পরিষ্কার উদাহরণ হচ্ছে মাইক্রোসফটের ‘তায়’ (Tay) টুইটার চ্যাটবট। এটি এক সময় বর্ণবাদী টুইট পুনরায় পোস্ট করা শুরু করে।[৩১] এর ফলে মুক্তির মাত্র ১৬ ঘণ্টার মধ্যে এটিকে বন্ধ করে দিতে হয়। এ ধরনের আরেকটি উদাহরণ হলো ‘লেন্সা’ (Lensa) এআই অ্যাভাটার অ্যাপ। এটি নারীদেরকে যৌনায়িত বা সেক্সুয়ালাইজড রূপে উপস্থাপন করেছিল।[৩২] এ ধরনের ঘটনার ফলে ব্যবহারকারীদের মধ্যে উদ্বেগ তৈরি হয়। এটি বিদ্যমান স্টেরিওটাইপকে শক্তিশালী করে। পাশাপাশি, কর্মক্ষেত্রে নারীদের জন্য শত্রুতামূলক পরিবেশ তৈরি করে।

এই পক্ষপাতদুষ্টতা ও বৈষম্যের সমস্যা সমাধান করার জন্য করণীয় অনেক। এজন্য বিভিন্ন ধরনের দলকে এআই উন্নয়নে অন্তর্ভুক্ত করতে হবে, যাতে বিভিন্ন দৃষ্টিভঙ্গি এবং জীবনের অভিজ্ঞতা ডেটার মানকে উন্নত করে। অন্তর্ভুক্তিমূলক কর্মস্থল [৩৩] গড়ে তোলা জরুরি যেখানে সকল গোষ্ঠী নিজেদের কণ্ঠস্বর তুলে ধরতে পারবে ও তাদের কথা শোনা হবে। কর্মী এবং নেতাদের দক্ষতা উন্নয়ন এবং পুনঃপ্রশিক্ষণকে অগ্রাধিকার দিতে হবে, যাতে এআই সম্পর্কে তাদের জ্ঞান বাড়ে। এআই সিস্টেমে পক্ষপাত শনাক্ত এবং নিয়ন্ত্রণের জন্য নিয়মিত ও কঠোর নিরীক্ষা করতে হবে ও এর জন্য স্পষ্ট জবাবদিহিতার কাঠামো তৈরি করতে হবে।[৩৪] অন্যান্য প্রতিষ্ঠানসমূহ যেমন, সরকারী, অলাভজনক সংস্থা বা শিক্ষাপ্রতিষ্ঠানের সাথে কাজ করতে হবে ও এর মাধ্যমে এমন একটি ইকোসিস্টেম তৈরি করতে হবে, যেখানে সহায়তা, সম্পদ এবং তথ্য সহজলভ্য হবে।

প্রাইভেসি বা গোপনীয়তা, জবাবদিহিতা, ন্যায্যতা এবং মানবাধিকারের সমস্যা

এআই ডিপফেক (deepfake), ভয়েস সিমুলেশন এবং ভুয়া নথি ব্যবহার করে অপরাধ সংঘটিত করতে সহায়তা করছে, যেগুলো বিভিন্ন রকম মানবাধিকারের সমস্যার সৃষ্টি করেছে।

বিশ্বজুড়ে পুলিশ এআই ব্যবহার করে মুখমণ্ডল শনাক্তকরণ (facial recognition) [৩৫], স্বয়ংক্রিয় লাইসেন্স প্লেট পাঠক (automated licence plate readers) [৩৬], গুলির শব্দ শনাক্তকরণ সিস্টেম (gunshot detection systems) [৩৭], এবং সামাজিক মাধ্যম বিশ্লেষণ (social media analysis) [৩৮] এর মতো এআই টিলের দিকে ঝুঁকছে। ব্যবহার হচ্ছে পুলিশ রোবটেরও। [৩৯] আইনজীবীরাও ক্রমাগত এআই-এর ব্যবহার বাড়িয়ে চলেছেন। [৪০] বিচারকরাও এআই ব্যবহারের জন্য নতুন নির্দেশিকা অ্যাডপ্ট করছেন।[৪১] এই অবস্থায় জননিরাপত্তা উন্নত করার ক্ষেত্রেও এআই ভূমিকা রাখতে পারে। তবে এর সাথে গোপনীয়তা, জবাবদিহিতা, ন্যায্যতা এবং মানবাধিকারের সম্পর্কিত ঝুঁকি রয়েছে, যেখানে এগুলোর নীতির উপরেই আমাদের বিচার ব্যবস্থা নির্ভর করে।[৪২]

২০২০ সালে নিউ ইয়র্ক টাইমসের একটি তদন্তে আমেরিকান কোম্পানি ক্লিয়ারভিউ এআই (Clearview AI) এর ব্যাপক কার্যক্রম উন্মোচিত হয়।[৪৩] তারা ইন্টারনেট থেকে তিন বিলিয়নেরও বেশি ছবি স্ক্র্যাপ করে একটি মুখমণ্ডল শনাক্তকরণ (facial recognition) ডেটাবেস তৈরি করে। এই ছবিগুলো সামাজিক মাধ্যমসহ অন্যান্য জায়গা থেকে ব্যবহারকারীদের সম্মতি ছাড়াই সংগ্রহ করা হয়। বিশ্বব্যাপী বিভিন্ন পুলিশ সংস্থা এই প্রোগ্রাম ব্যবহার করে, যেমন কানাডার বেশ কয়েকটি সংস্থা এটা ব্যবহার করে, আর এজন্য ব্যাপক সমালোচনারও সম্মুখীন হয়।[৪৪] একাধিক দেশের নিয়ন্ত্রক সংস্থাগুলো কোম্পানিটিকে প্রাইভেসি আইন লঙ্ঘনকারী হিসেবে চিহ্নিত করে।[৪৫] এরপর তাদেরকে কানাডায় কার্যক্রম বন্ধ করার নির্দেশ দেওয়া হয়।[৪৬] তবুও ক্লিয়ারভিউ এআই তাদের কার্যক্রম চালিয়ে যাচ্ছে। তারা বিভিন্ন তাদের সাফল্যের গল্প উল্লেখ করে তাদের কার্যক্রমের প্রয়োজনীয়তা তুলে ধরছে। তবে মুখমণ্ডল শনাক্তকরণ প্রযুক্তি ফলস পজিটিভ ফল দেবার মত বিভিন্ন সমস্যার কারণে বরাবরই সমালোচনার শিকার হয়। বিশেষ করে কৃষ্ণাঙ্গ এবং অন্যান্য বর্ণিত জনগোষ্ঠীকে শনাক্ত করার ক্ষেত্রে এটি বর্ণবাদী বৈষম্য এবং বায়াস বাড়িয়ে তুলতে পারে।[৪৭] ক্লিয়ারভিউ এআই বিতর্কে জড়িয়ে পড়ার পর কিছু কানাডিয়ান আইন প্রয়োগকারী সংস্থা নতুন পদক্ষেপ নিয়েছে, যেমন টরন্টো পুলিশ সার্ভিস এআই ব্যবহারের জন্য নীতিমালা প্রণয়ন করেছে।[৪৮] কিন্তু অনেক সংস্থাই সেটা করেনি। এরকম কাজের বিরুদ্ধে শক্ত নিয়ন্ত্রণ প্রয়োজন, কেননা এগুলো জনগণের প্রাইভেসি বা গোপনীয়তার মতো মানবাধিকারের বিরুদ্ধে। ইউরোপীয় ইউনিয়নের এআই অ্যাক্ট (AI Act) কিছু ব্যবহারের জন্য এআই নিষিদ্ধ করেছে।[৪৯] যেমন ইন্টারনেট বা সিসিটিভি (CCTV) থেকে লক্ষ্যবিহীনভাবে ছবি স্ক্র্যাপ করা, জনসমক্ষে বাস্তব সময়ে বায়োমেট্রিক শনাক্তকরণ, এবং শুধুমাত্র প্রোফাইলিং বা ব্যক্তিত্বের বৈশিষ্ট্যের ওপর ভিত্তি করে পুনরায় অপরাধের ঝুঁকি মূল্যায়ন।

প্রাইভেসি নিয়ে কিছু সমস্যা কপিরাইটের সাথেও সম্পর্কিত। এই লেখাটার শুরুতেই উল্লেখ করা হয়েছে, ২০২৪ সালে ইনস্টাগ্রামে এআই দ্বারা তৈরি ইনফ্লুয়েন্সারদের (influencers) সংখ্যা হঠাৎ বেড়ে যায়।[৫০] এই মডেলগুলো তৈরি করা হয় এআই-জেনারেটেড মুখের ছবি এবং বাস্তব মডেলদের দেহের চুরি করা ছবি ও ভিডিও দিয়ে। মূল কন্টেন্ট নির্মাতারা তাদের ছবি ব্যবহারের জন্য কোনো সম্মতি দেননি। তারা কোনো ধরনের ক্ষতিপূরণও পাননি।

এআই অপরাধ বিচার ব্যবস্থায় বড় ধরনের চ্যালেঞ্জ সৃষ্টি করছে। বিশেষ করে ডিপফেকের (deepfake) প্রমাণের ক্ষেত্রে এই বেশ বড় রকমের চ্যালেঞ্জ তৈরি করেছে। ইতোমধ্যেই কিছু মামলায় দেখা গেছে, একটি পক্ষ দাবি করছে যে অপর পক্ষের প্রমাণ ডিপফেক, যার ফলে প্রমাণ বৈধ হলেও সন্দেহ থেকে যায়। ডিপফেক প্রমাণের অভিযোগের একটি উচ্চপ্রোফাইল উদাহরণ হলো জোশুয়া ডুলিনের (Joshua Doolin) মামলা।[৫১] তিনি ৬ জানুয়ারি, ২০২১ সালে যুক্তরাষ্ট্রের ক্যাপিটলে (U.S. Capitol) সংঘটিত বিদ্রোহের সাথে সম্পর্কিত অভিযোগের সম্মুখীন হন। শেষ পর্যন্ত তাকে দোষী সাব্যস্ত করা হয়।[৫২] ডুলিনের আইনজীবী দাবি করেন যে ইউটিউব (YouTube) থেকে প্রাপ্ত ভিডিও প্রমাণের সত্যতা যাচাই করতে প্রসিকিউটরদের প্রয়োজনীয় পদক্ষেপ নিতে হবে। এর ফলে ডিপফেকের সম্ভাব্য ব্যবহার নিয়ে উদ্বেগ দেখা দেয়।

এছাড়াও ঝুঁকি মূল্যায়ন অ্যালগরিদমেও সমস্যা দেখা যায়। যেমন ধরুন, একটি এআই অ্যালগরিদম আপনাকে ফ্লাইট রিস্ক হিসেবে বা পুনরায় অপরাধ করবেন বলে ধরে নিচ্ছে। আর সেই তথ্য ব্যবহার করে বিচারক বা প্যারোল বোর্ড আপনার হেফাজত থেকে মুক্তির আবেদন বাতিল করেছে। এটি কোনো ডিস্টোপিয়ান কল্পনা নয়। আসলেই স্বয়ংক্রিয় অ্যালগরিদম-ভিত্তিক সিদ্ধান্ত গ্রহণ ইতোমধ্যে বিভিন্ন দেশে ব্যবহৃত হচ্ছে।[৫৩] এটি ব্যবহৃত হচ্ছে সরকারী সুবিধা এবং বাসস্থান পাওয়ার জন্য সিদ্ধান্ত নেওয়ার ক্ষেত্রেও। পারিবারিক সহিংসতার ঝুঁকি মূল্যায়নে, অভিবাসনের সিদ্ধান্ত এবং অপরাধ বিচার প্রক্রিয়ার বিভিন্ন ক্ষেত্রে এই প্রযুক্তির ব্যবহার বাড়ছে।[৫৪] কিন্তু এ ধরনের অ্যালগরিদম দ্বারা ক্ষতিগ্রস্ত ব্যক্তিরা সাধারণত তাদের মূল সফটওয়্যারের অ্যাক্সেস পান না, আর পেলেও সেগুলো প্রায়ই ‘ব্ল্যাক বক্স’ ধরনের হয়ে থাকে, যা থেকে কোন কিছু বোঝা প্রায় অসম্ভব।

এই চ্যালেঞ্জগুলো মোকাবেলার জন্য নতুন আইন, বিধি এবং নীতিমালা প্রণয়ন অত্যন্ত জরুরি। এআই সম্পর্কিত আইনগুলোতে অবশ্যই মানবাধিকারকে সম্মান করার বিষয় অন্তর্ভূক্ত রাখতে হবে, যাতে কোন রকম মানবাধিকার লঙ্ঘনের আশঙ্কা না থাকে। এক্ষেত্রে আইনে মৌলিক স্বাধীনতা, আইনি অধিকার এবং সমতা সুরক্ষার ব্যাপারগুলোতে জোর দিতে হবে। এক্ষেত্রে প্রাইভেসি আইন [৫৫], মানবাধিকার আইন [৫৬], ভোক্তা সুরক্ষা আইন ইত্যাদি এআই ব্যবহারের জন্য গুরুত্বপূর্ণ মান নির্ধারণ করে।

ভুল তথ্য (misinformation), বায়াস (bias), এবং প্রাইভেসির (privacy) সমস্যাগুলো দূর করতে ও জেনারেটিভ এআই এর সুবিধা সর্বাধিক করতে পেশাগত মানদণ্ড এবং সর্বোত্তম অনুশীলন গ্রহণ করা অত্যন্ত গুরুত্বপূর্ণ। এক্ষেত্রে এআই নিয়ে স্বচ্ছতা ও প্রকাশ; নির্ভুলতা ও তথ্য যাচাই; ন্যায়সংগততা; প্রাইভেসি ও সম্মতি; এবং দায়িত্ব ও নজরদারি নিশ্চিত করতে হবে।

পরিণামবাদ এবং এআই-এর প্রভাবের প্রশ্ন

এক্ষেত্রেও উদাহরণ দিয়ে শুরু করি। এআই বর্তমানে, ছবি, ভিডিও, লেখা জেনারেট করতে পারে। এর ফলে এরফলে বিভিন্ন কন্টেন্ট ক্রিয়েটররা তীব্র প্রতিযোগিতার সম্মুখীন হচ্ছে, তাদের জীবিকায় প্রভাব পড়ছে, যেখানে জেনারেটিভ এআই এর মডেলগুলোকে প্রশিক্ষিত করা হয়েছে তাদের কন্টেন্টকে ট্রেইন করেই, তাদেরকে কোন রকম ক্ষতিপুরণ না দিয়েই। এরফলে বহু সংখ্যক সৃজনশীল কন্টেন্ট ক্রিয়েটরদের ভবিষ্যত আশঙ্কায় পড়েছে, তারা কাজ হারাবার ঝুঁকিতে পড়ছে। একইভাবে দেখা যায় এআই কোডিং ও বিভিন্ন অ্যানালাইটিকাল কাজেও দক্ষ হয়ে উঠছে। এআই-কে কেন্দ্র করে নতুন নতুন রোবট তৈরি করা হচ্ছে যেগুলো মানুষের মতই কাজ করছে। এসবের ফলে ভবিষ্যতে ব্যাপক পরিমাণে জব রিপ্লেসমেন্ট ঘটতে পারে, অনেক মানুষ চাকরি হারাতে পারে, যার সামাজিক প্রভাব হতে পারে মারাত্মক। এআই এর এই হুমকিটি যে নৈতিক বিষয়কে নিয়ে আসে তা ব্যক্তির অধিকারের সাথে সম্পর্কিত নয়, বরং সম্পর্কিত পরিণামের সাথে।

এখানেই আসছে নীতিশাস্ত্রের আরেকটি দৃষ্টিকোণ পরিণামবাদ (consequentialism)। এই দর্শন কর্মের ফলাফল দ্বারা কার্যক্রমের মূল্যায়ন করে।[৫৭] পরিণামবাদ এআই-এর বৃহত্তর প্রভাবের দিকে মনোযোগ দেয়। এই এথিক্সে ঠিক ও ভুল নির্ধারিত হয় কোন কাজ নিজে কেমন তা দিয়ে নয়, বরং এর ফল কী হবে তার উপর। যদি ফল ভাল হয় তবে তা নৈতিক, যদি খারাপ ফল আসে তবে তা অনৈতিক। এভাবে এটি ব্যক্তির অধিকার এবং দায়িত্ব থেকে দূরে সরিয়ে বৃহত্তর প্রভাবকে প্রাধান্য দেয়। এআই এর ক্ষেত্রে এটি জানতে চায় এর ব্যবহার মানবজাতির জন্য সুফল বয়ে আনছে কিনা। এআই প্রসঙ্গে বিশেষ করে আমরা দুটো হুমকি রয়েছে যা পরিণামবাদের সাথে সম্পর্কিত – এআই দ্বারা পরিবেশের প্রতি হুমকি, এবং মানুষের চাকরি হারাবার বা জীবনযাত্রার নিম্ন মানের হুমকি। এই দুটি ক্ষেত্রে নৈতিকতাও নির্ধারিত হয় কিভাবে এই হুমকিগুলোকে নিয়ন্ত্রণ করা যায় তার ভিত্তিতে।

পরিবেশগত হুমকি

এআই এর সাথে পরিবেশগত হুমকি জড়িত। যেমন জেনারেটিভ এআইকে কোন কিছু জেনারেট করতে বলা হলে একধরনের অ্যালগরিদমিক প্রক্রিয়া চালু হয়, যা বিশেষায়িত চিপ এর ওপরই চলে। এই চিপগুলো তাইওয়ানের টিএসএমসির মতো ফাউন্ড্রিতে তৈরি হয়, এরপর তা সযত্নে সংরক্ষিত হয় যুক্তরাষ্ট্রের ভার্জিনিয়ার কোনো এক বনভূমির গভীরে অবস্থিত এক ডেটা সেন্টারে। এই পুরো প্রক্রিয়াটিই প্রচুর পরিমাণে জ্বালানি (energy) ব্যবহৃত হয়, যার ফলে বায়ুমণ্ডলে নিঃসরণ হয় প্রচুর পরিমাণ কার্বন ডাই-অক্সাইড (CO2)।[৫৮]

টেক-কোম্পানি হাগিং ফেইস (Hugging Face) ও কার্নেগি মেলন ইউনিভার্সিটির গবেষকরা মিলে চালানো একটি গবেষণায় দেখা যায়, গড়ে প্রতিটি কোয়েরি উত্তর দিতে প্রায় ০.০০০৫ কিলোওয়াট-আওয়ার খরচ হয়।[৫৯] এখন, ধারণা করা হয় চ্যাটজিপিটি প্রতিদিন প্রায় এক কোটি প্রশ্নের উত্তর দেয়। সেক্ষেত্রে ইউএস এনভায়রনমেন্টাল প্রোটেকশন এজেন্সি অনুযায়ী চ্যাটজিপিটির ব্যবহার ধাপে নিসৃত হয় প্রায় ২.১ টন CO2, যা প্রায় ২০ লাখ মাইল গাড়ি চালানোর সঙ্গে তুলনীয়!

এটা গেল ব্যবহার ধাপের কার্বন নিঃসরণ। এটা ছাড়াও চিপ উৎপাদন ও ডেটা সেন্টারের পেছনেও প্রচুর কার্বন নিঃসরণ ঘটে। চ্যাটজিপিটির মত এআই মডেলগুলো যার সাহায্যে বিশাল ডেটা থেকে ব্যবহারকারীদের চাহিদা মতো কন্টেন্ট জেনারেট করে তার মূলে থাকে এই চিপগুলো। তাইওয়ানের টিএসএমসি এই ধরনের চিপের বিশাল একটা অংশ সরবরাহ করে। ক্রমবর্ধমান চাহিদা মেটানোর জন্য তারা তাইচুং (Taichung)-এ একটি নতুন প্ল্যান্ট তৈরির পরিকল্পনা করছে। অনুমান করা হচ্ছে, নতুন এই চিপ কারখানাটি প্রতি বছর ৩.৫১ মিলিয়ন টন CO2 নিঃসরণ করবে। এতে দেশের কার্বন নিঃসরণ ব্যাপকভাবে বাড়বে। এদিকে এআই কোম্পানিগুলো আরও চিপ নির্মাতা চাচ্ছে, কারণ শুধু তাইওয়ান একা চাহিদা মেটাতে পারছে না। যেমন ওপেনএআই-এর প্রধান স্যাম অল্টম্যান প্রায় ৭ ট্রিলিয়ন ডলার তুলে একটি বিশাল চিপ উৎপাদন কোম্পানি গড়তে চাইছেন। অন্যদিকে ডেটা সেন্টার মূলত বিশাল ওয়্যারহাউস, যেখানে থাকা কম্পিউটারগুলো বিপুল পরিমাণ ডেটা সংরক্ষণ করে এবং এআই মডেলের প্রশিক্ষণে বা ট্রেইনিং-এ কাজে লাগে। ওপেনএআই এর দ্বারা প্রকাশিত পূর্বের তথ্য অনুসারে, জিপিটি-৩ (GPT-3) ট্রেন করার সময় ৫৫২ টন CO2 নিঃসরণ হয়েছিল, যা নিউইয়র্ক থেকে লস অ্যাঞ্জেলেস পর্যন্ত গাড়িতে ২৫৪ বার আসা-যাওয়ার সমান।[৬০] আর এই শক্তির পরিমাণটা ক্রমশ বাড়ছে। একজন বিশেষজ্ঞ বলেছেন, এখন যে হারে এআই কম্পিউট (AI compute) সক্ষমতা বাড়ছে, প্রায় প্রতি ছয় মাসে এটি ১০ গুণ বাড়ছে।

এআই এর পরিবেশগত ঝুঁকি কেবল কার্বন নিঃসরণেই সীমাবদ্ধ নয়। সেই সাথে রয়েছে প্রচুর পানির খরচের বিষয়টিও। ডেটা সেন্টারগুলো এআই প্রযুক্তি পরিচালনার জন্য প্রচুর বিদ্যুৎ ও পানি ব্যবহার করে, যা পরিবেশের ওপর উল্লেখযোগ্য প্রভাব ফেলে। ইউসি রিভারসাইড (UC Riverside) এর একটি গবেষণা থেকে দেখা যায়, ডেটা সেন্টারগুলোর প্রতি ১০ থেকে ৫০টি চ্যাটজিপিটি প্রম্পট প্রক্রিয়াকরণে প্রায় একটি স্ট্যান্ডার্ড ১৬ আউন্স পানি ব্যবহার হতে পারে।[৬১] আর এই পরিমাণটা এআই নির্মাণ এবং পরিচালনায় ব্যবহৃত সামগ্রিক পানির অতি সামান্য একটি অংশ মাত্র।

এআই কোম্পানিগুলো জানে এই পরিবেশগত ঝুঁকিগুলো খুব সমস্যার। তবে এই ব্যাপারে সংখ্যাগুলো যে ঠিক কত বড় তা প্রকাশ করে না, যে তথ্য একমাত্র তাদের পক্ষেই সঠিকভাবে হিসাব করা সম্ভব। তারা সমাধান খুঁজছে, কিন্তু সেই সমাধান শক্তির ব্যবহার কমিয়ে আনার জন্য নয়, বরং আরও বেশি শক্তি উৎপাদন করার জন্য। রাজনীতিবিদরাও বিষয়টিতে মনোযোগ দিয়েছে। কেউ কেউ বলছেন নতুন ড্রিলিং, পাইপলাইন, রিফাইনারি, বিদ্যুৎকেন্দ্র, এবং পারমাণবিক রিয়্যাক্টর নির্মাণে অনুমোদন দেওয়া হবে। তাদের লক্ষ্য হলো নতুন শিল্পগুলোকে সচল রাখতে যে বিপুল বিদ্যুৎ দরকার তা নিশ্চিত করা। কিন্তু হয়তো আমাদের ভিন্ন একটি প্রশ্ন করা উচিত। আর সেটা হচ্ছে, এভাবে এআই উদ্ভাবিত বিশাল শক্তি চাহিদা আসলেই দরকার কিনা।

চাকরি হারানোর হুমকি

জেনারেটিভ এআই নিয়ে বড় প্রশ্নগুলোর মধ্যে একটি হলো এর কর্মসংস্থানের ওপর এর প্রভাব। অনেকেরই সবচেয়ে বড় আশঙ্কা হলো, এআই হয়তো আমাদের সকলের চাকরি কেড়ে নেবে। সম্প্রতি  “দ্য ইনফরমেশন”-এ প্রকাশিত একটি প্রতিবেদনে বলা হয়েছে, এআই মানুষকে প্রতিস্থাপন করবে—এমন ধারণা পুরনো, কিন্তু বেশিরভাগ কোম্পানি এতদিন এই বিষয়টি সরাসরি প্রচার করতে চায়নি, কারণ সেক্ষেত্রে তার রেপুটেশনে আঘাত ও রাজনৈতিক চাপ সৃষ্টি করতে পারে।[৬২] তবে এখন, যখন টেক কোম্পানিগুলো এআইয়ের মূল্য বোঝাতে চাইছে, তখন তারা অনেকটাই স্পষ্টভাবে বলছে যে এআই খরচ কমাতে পারে – বিশেষ করে মানব শ্রমের খরচ। যাই হোক, প্রতিবেদনটির সারসংক্ষেপ হলো, আগে এআই বিনিয়োগ ছিল মূলত উদ্ভাবন ও সম্ভাবনা যাচাইয়ের জন্য। এখন কোম্পানিগুলো অন্যান্য বাজেট থেকে খরচ কমিয়ে এআইতে বিনিয়োগের পথ খুঁজছে। প্রতিবেদনে কিছু বাস্তব উদাহরণও দেওয়া হয়েছে। যেমন, ফিনাস্ত্রা (Finastra) নামে এক ব্রিটিশ ফিনটেক (Fintech) প্রতিষ্ঠান আগে যে ধরনের কাজের জন্য কোনো বহিরাগত মার্কেটিং এজেন্সিকে নিয়োগ দিত, তার বদলে এখন মাইক্রোসফট ৩৬৫ কো-পাইলট ব্যবহার করে নিজেরা করতে পারছে। যেমন তারা ৫০ জন আর্থিক খাতের নির্বাহীর ইন্টারভিউকে মাইক্রোসফটের কো-পাইলট ব্যবহার করে ট্রান্সক্রাইব করে সেখান থেকে আবার কো-পাইলট ব্যবহার করে ফিনাস্ত্রার জন্য বিজ্ঞাপনমূলক লেখা বা অ্যাড কপি তৈরি করে দেয়। সাধারণত এ ধরনের কাজ করতে হয়তো ৬০ হাজার ডলার খরচ হতো ও কয়েক মাস লাগত। কিন্তু এখন তাদের কর্মীদের সময় ও কো-পাইলটের খরচে তা সম্পন্ন হয়েছে। অবশ্য কোম্পানির সিএমও বলছেন, এআই ব্যবহার মানে তার অভ্যন্তরীণ ৬০ জনের মার্কেটিং টিম ছাঁটাই নয়; বরং বহিরাগত এজেন্সির খরচ কমানো।

গ্রাহক সেবার ক্ষেত্রেও বড় ধরনের পরিবর্তন দেখা যাচ্ছে। টেলিকম (Telecom) প্রতিষ্ঠান বেল কানাডার (Bell Canada) সিইও বিশ্লেষকদের জানিয়েছেন, গুগলের এআই টুল ব্যবহার করে তারা ২ কোটি ডলার “শ্রম খরচ” (Labor Cost) সাশ্রয় করতে পেরেছে। অন্য দিকে দেখা যায় প্রথম ৯ মাসে ক্লারনা (Klarna) নামের একটি প্রতিষ্ঠানের সেলস অ্যান্ড মার্কেটিং খরচ ১৬% কমেছে, আর গ্রাহকসেবা ও অপারেশন খরচ ১৪% কমেছে। এই সময়ে তাদের রাজস্ব (Revenue) বেড়েছে ২৩%। ক্লারনা দাবি করছে, এই খরচ সাশ্রয়ের বেশিরভাগই এআইয়ের কারণে।[৬৩] এক্ষেত্রে তাদের সবচেয়ে বেশি উপকার করেছে তাদের কাস্টোমার সারভিস চ্যাটবট যা ওপেনএআই (OpenAI) দ্বারা চালিত। তারা বলছে এটি ৭০০ মানুষের কাজের সমান কাজ করতে পারে। ক্লারনা যেমন বহিরাগত মার্কেটিং এজেন্সির উপর নির্ভরতা কমিয়েছে, তেমনি অনেকে এমন করছে। সম্প্রতি এমন কথাও শোনা যাচ্ছে যে ভার্টিকাল (Vertical) এআই এজেন্টগুলো (AI Agents) সফটওয়্যার-হিসাবসেবা বা সাস (SaaS) থেকে ১০ গুণ বড় বাজার তৈরি করতে পারে।[৬৪] এই ধারণার পেছনে যুক্তি হল, এআই এজেন্ট শ্রমকে প্রতিস্থাপন করছে, আর শ্রম খরচ সাধারণত সফটওয়্যার খরচের চেয়ে অনেক বেশি। তবে এই মূল্য নির্ধারণের বিষয়টা এখনো অনিশ্চিত।

অবস্থা যখন এই তখন প্রশ্ন আসেই যে, আগামীতে কর্মসংস্থানের ক্ষেতে কী ঘটতে যাচ্ছে। নেতিবাচক দৃশ্যপট হচ্ছে সবাই চাকরি হারাবে। রাষ্ট্রকে ইউনিভার্সাল ক্রেডিটের দিকে যেতে হবে। কিন্তু রাষ্ট্র যদি ব্যাপারটাকে নিয়ন্ত্রণ করতে না পারে তাহলে উদ্ভব হবে তীব্র বৈষম্যের। কিন্তু তুলনায় কিছুটা ইতিবাচক দৃশ্যপটও রয়েছে, যা আরও বেশি ডিমান্ড বৃদ্ধি ও জব সৃষ্টির কথা বলে। কিন্তু পরিস্থিতি যেটাই হোক, রাষ্ট্রকে সবসময় নজর রাখতে হবে যাতে মানুষ বৈষম্যের শিকার না হয়, ও এআই এর মাধ্যমে রাষ্ট্রে যে গ্রোথ হবে তাতে সকলেই উপকৃত হয়। শুধু জিডিপি নয়, উন্নতি দরকার প্রত্যেক মানুষের জীবন যাত্রার মানেও। বিশেষ করে এআই দ্বারা জব রিপ্লেসমেন্টের সম্ভাবনা যখন দেখা দিচ্ছে, এটা রাষ্ট্রের জন্য অনেক বড় চ্যালেঞ্জ উত্থাপন করে।

কিন্তু এ গেল ভবিষ্যতের কথা। কিন্তু বর্তমানে এই ব্যাপারে আরও একটি আশঙ্কার ব্যাপার দেখা গেছে। এটাও কর্মসংস্থান ও জীবিকার সাথেই সম্পর্কিত। এআই এর ব্যবহার আর্টিস্ট বা কন্টেন্ট ক্রিয়েটরদের বিভিন্নভাবে ক্ষতিগ্রস্ত করেছে। বিভিন্ন এআই মডেলকে এদের বিভিন্ন কন্টেন্ট বা শিল্পকর্ম দিয়ে ট্রেইন করা হয়েছে কোন রকম অনুমতি গ্রহণ বা ক্ষতিপুরণ প্রদান ছাড়াই। আর এরপর দেখা যায়, এদের কন্টেন্ট বা শিল্পকর্ম দ্বারা ট্রেইনড হওয়া জেনারেটিভ এআই মডেল যখন অনুরূপ কন্টেন্ট তৈরি করে এদের জীবিকার ক্ষতি করে। এভাবে এটি শিল্পী বা কন্টেন্ট ক্রিয়েটরদের জীবিকা ও সৃজনশীলতার ক্ষেত্রে হুমকির সৃষ্টি করে। এর বিরুদ্ধে বিভিন্ন রকম পদক্ষেপ নেয়া হয়েছে যেগুলোকে পরিণামবাদী দৃষ্টিভঙ্গি থেকেই ব্যাখ্যা করা যায়। উদাহরণস্বরূপ, গেটি ইমেজেস (Getty Images) এর মতো সংস্থা অনুমোদন ছাড়া মানব কন্ট্রিবিউটরদের কাজকে এআই প্রশিক্ষণে ব্যবহারের বিরুদ্ধে আইনি পদক্ষেপ নিয়েছে।[৬৫] কিছু প্ল্যাটফর্ম, যেমন ডেভিয়ান্টআর্ট (DeviantArt) [৬৬] এবং শাটারস্টক (Shutterstock) [৬৭] এআই ব্যবহার করে ছবি তৈরি করার সময় শিল্পীদের অপশন দিচ্ছে। তারা চায়, শিল্পীরা চাইলে তাদের কাজ থেকে বেরিয়ে আসতে পারেন অথবা ক্ষতিপূরণ পেতে পারেন।

প্রকাশনা, বিনোদন এবং ডিজাইন খাত অভূতপূর্ব স্বয়ংক্রিয়তার মুখোমুখি হচ্ছে। এই স্বয়ংক্রিয়তা উৎপাদন প্রক্রিয়ার প্রতিটি স্তরে কর্মীদের প্রভাবিত করতে পারে। কোন কন্টেন্টের ধারণা তৈরির পর্যায় থেকে শুরু করে বিতরণ পর্যন্ত সব স্তরই এর আওতায় পড়ে। এই ধরনের ডিজরাপশন বা বৈপ্লবিক পরিবর্তনগুলো এগুলোর বিরুদ্ধে উল্লেখযোগ্য প্রতিরোধ সৃষ্টি করেছে। ২০২৩ সালে স্ক্রিপ্ট লেখক এবং অভিনেতারা আন্দোলন শুরু করে।[৬৮] এর ফলে হলিউডের প্রোডাকশনগুলো বন্ধ হয়ে যায়। এই ঘটনা এআই-এর স্বয়ংক্রিয়তার নেতিবাচক প্রভাবের প্রতি একটি গুরুত্বপূর্ণ প্রতিরোধের উদাহরণ হয়ে দাঁড়ায়।

শেষ কথা

উপরে উল্লিখিত দুটি প্রধান নীতিশাস্ত্রীয় অবস্থান ছাড়াও আরও কিছু অবস্থান আছে। যেমন গুণগত নীতিশাস্ত্রের (Virtue ethics) কথা বলা যায়, যেটি ব্যবহারকারীদের পেশাগত এবং ব্যক্তিগত চরিত্রের ক্ষেত্রে জোর দেয়। যেমন কজন আইনজীবী এআই-উৎপাদিত আইনি উদ্ধৃতির ওপর নির্ভর করেছিলেন।[৬৯] এর ফলে আদালত তাকে শাস্তি দিয়েছে। এটি ব্যবহারকারীদের এআই নিয়ে দায়বদ্ধতার দিকটিও তুলে ধরে। যাই হোক, এই ভিন্ন ভিন্ন নীতিশাস্ত্রীয় অবস্থানগুলো আসলে এআই এর ব্যাপারে নীতি-নৈতিকতা প্রদানে কোন অপশন প্রদান করছে না, বরং এগুলো এআই এর সামগ্রিক হুমকির দিকটাকে তুলে ধরতেই সামনে আনা হয়েছে। এদের প্রত্যেকটিকেই বিবেচনা করতে হবে, প্রত্যেকটির সাথে সম্পর্কিত হুমকিকেই চ্যালেঞ্জ হিসেবে গ্রহণ করতে হবে, এগুলোকে মোকাবেলা করার জন্য প্রয়োজনীয় পদক্ষেপও নিতে হবে। এআই আমাদের বর্তমান বাস্তবতা। আগামীতে এর ব্যবহার বাড়তেই থাকবে। আর তাই যত দ্রুত বিভিন্ন রকম নিয়ন্ত্রণ ও নীতিমালা প্রতিষ্ঠা ও বাস্তবায়নের মাধ্যমে, এবং জনসচেতনতা তৈরির মাধ্যমে এআই এর হুমকিগুলোকে নিয়ন্ত্রণে আনা যাবে, ততই মানবজাতির মঙ্গল হবে, এবং এআই এর ইতিবাচক দিকগুলোকে মানুষ আস্থার সাথে গ্রহণ করতে পারবে।

তথ্যসূত্র

১. https://plato.stanford.edu/entries/ethics-deontological

২. https://www.undp.org/super-year-elections

৩. https://japantoday.com/category/politics/japanese-mayor-suddenly-speaks-fluent-english-with-ai-video-that-surprises-even-him

৪. https://www.sfpublicpress.org/as-bay-area-cities-adopt-real-time-ai-translation-for-public-meetings-sf-abstains

৫. https://timesofindia.indiatimes.com/city/bengaluru/bjp-to-use-ai-to-translate-pms-speeches/articleshow/108318912.cms

৬. https://fortune.com/2023/10/17/new-york-city-mnayor-eric-adams-uses-ai-to-speak-mandarin

৭. https://www.techtarget.com/searchcio/news/366560453/Presidential-candidates-AI-chatbot-fields-policy-questions

৮. https://www.washingtonpost.com/technology/2024/01/20/openai-dean-phillips-ban-chatgpt

৯. https://www.cbsnews.com/miami/news/mayor-suarez-launches-an-artificial-intelligence-chatbot-for-his-presidential-campaign-3

১০. https://www.wsj.com/articles/underdog-who-beat-biden-in-american-samoa-used-ai-in-election-campaign-b0ce62d6

১১. https://www.nytimes.com/2024/02/11/world/asia/imran-khan-artificial-intelligence-pakistan.html

১২. https://quiller.ai

১৩. https://www.axios.com/2024/01/30/ai-campaign-fundraising-democrats-chatgpt

১৪. https://www.donoratlas.com

১৫. https://www.newpaltz.edu/schoolofbusiness/hvventurehub/newsletter/article/august-2024/daisychains-innovation-in-campaign-organizing

১৬. https://www.thenation.com/article/politics/how-ai-is-transforming-the-way-political-campaigns-work

১৭. https://www.wired.com/story/battelgroundai-ai-progressive-political-ads

১৮. https://www.forbes.com/sites/siladityaray/2024/06/14/trump-says-he-had-a-speech-rewritten-by-ai-and-decided-im-going-to-use-this

১৯. https://www.robeisenbach.com/cases/comm-voice

২০. https://www.pewresearch.org/short-reads/2024/09/19/concern-over-the-impact-of-ai-on-2024-presidential-campaign

২১. https://ipi.media/slovakia-deepfake-audio-of-dennik-n-journalist-offers-worrying-example-of-ai-abuse

২২. https://www.nbcnews.com/politics/2024-election/fake-joe-biden-robocall-tells-new-hampshire-democrats-not-vote-tuesday-rcna134984

২৩. https://apnews.com/article/artificial-intellgence-memes-trump-harris-deepfakes-256282c31fa9316c4059f09036c70fa9

২৪. https://www.npr.org/2024/08/17/nx-s1-5079397/openai-chatgpt-iranian-group-us-election

২৫. https://www.washingtonpost.com/technology/2023/08/28/ai-2024-election-campaigns-disinformation-ads

২৬. https://www.nbcnews.com/tech/chatgpt-rejected-image-generations-presidential-candidates-rcna179469

২৭. https://doi.org/10.1016/j.jjimei.2023.100208

২৮. https://theconversation.com/when-ai-plays-favourites-how-algorithmic-bias-shapes-the-hiring-process-239471

২৯. https://theconversation.com/artificial-intelligence-needs-to-be-trained-on-culturally-diverse-datasets-to-avoid-bias-222811

৩০. https://norislab.com/index.php/ijsa/article/view/52

৩১. https://www.nytimes.com/2016/03/25/technology/microsoft-created-a-twitter-bot-to-learn-from-users-it-quickly-became-a-racist-jerk.html

৩২. https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-lensa-undressed-me-without-my-consent

৩৩. https://www.torontomu.ca/diversity/reports/Building-Inclusive-Workplaces.pdf

৩৪. https://www.oecd.org/en/publications/advancing-accountability-in-ai_2448f04b-en.html

৩৫. https://www.interpol.int/en/How-we-work/Forensics/Facial-Recognition

৩৬. https://www.eff.org/deeplinks/2024/11/human-toll-alpr-errors

৩৭. https://www.dhs.gov/sites/default/files/2022-12/22_1214_st_GunshotDetection%20ystems_December2022_v2.pdf

৩৮. https://www.wired.com/story/ai-helps-police-monitor-social-media-go-too-far

৩৯. https://www.bu.edu/law/files/2023/09/Regulating-Police-Robots.pdf

৪০. https://nationalmagazine.ca/en-ca/articles/legal-market/legal-tech/2024/ai-use-skyrocketing-at-north-american-law-firms

৪১. https://cjc-ccm.ca/en/news/canadian-judicial-council-issues-guidelines-use-artificial-intelligence-canadian-courts

৪২. https://digitalcommons.schulichlaw.dal.ca/cgi/viewcontent.cgi?article=1251&context=cjlt

৪৩. https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

৪৪. https://www.priv.gc.ca/en/opc-actions-and-decisions/ar_index/202021/sr_rcmp

৪৫. https://theconversation.com/australias-privacy-regulator-just-dropped-its-case-against-troubling-facial-recognition-company-clearview-ai-now-what-237231

৪৬. https://www.priv.gc.ca/en/opc-actions-and-decisions/investigations/investigations-into-businesses/2021/pipeda-2021-001

৪৭. https://theconversation.com/ai-used-by-police-cannot-tell-black-people-apart-and-other-reasons-canadas-ai-laws-need-urgent-attention-236752

৪৮. https://tpsb.ca/policies-by-laws/board-policies/195-use-of-artificial-intelligence-technology

৪৯. https://artificialintelligenceact.eu/high-level-summary

৫০. https://www.wired.com/story/ai-pimping-industry-deepfakes-instagram/?utm_source=chatgpt.com

৫১. https://www.theledger.com/story/news/local/2022/08/09/jan-6-capitol-riot-defendant-joshua-doolin-fights-prosecutors-limits-defense/10267348002

৫২. https://www.theledger.com/story/news/local/2024/08/20/joshua-doolin-convicted-on-jan-6-charges-leaves-prison/74824905007

৫৩. https://www.lco-cdo.org/wp-content/uploads/2020/10/Criminal-AI-Paper-Final-Oct-28-2020.pdf

৫৪. https://law.justia.com/cases/wisconsin/supreme-court/2016/2015ap000157-cr.html

৫৫. https://www.priv.gc.ca/en/privacy-topics/privacy-laws-in-canada/02_05_d_15

৫৬. https://www.ohrc.on.ca/sites/default/files/Human%20Rights%20Impact%20Assessment%20for%20AI.pdf

৫৭. https://plato.stanford.edu/entries/consequentialism

৫৮. https://ainowinstitute.org/publication/policy/compute-and-ai

৫৯. https://huggingface.co/spaces/sasha/CO2_inference

৬০. https://arxiv.org/pdf/2211.02001

৬১. https://arxiv.org/abs/2304.03271

৬২. https://www.theinformation.com/articles/microsofts-new-sales-pitch-for-ai-spend-less-money-on-humans

৬৩. https://fintechmagazine.com/articles/why-ceos-must-actively-encourage-train-employees-on-ai

৬৪. https://techstartups.com/2024/12/03/why-vertical-ai-agents-could-be-10x-bigger-than-saas-insights-from-y-combinator

৬৫. https://newsroom.gettyimages.com/en/getty-images/getty-images-statement

৬৬. https://www.deviantart.com/team/journal/Create-AI-Generated-Art-Fairly-with-DreamUp-933537821

৬৭. https://support.submit.shutterstock.com/s/article/Shutterstock-ai-and-Computer-Vision-Contributor-FAQ?language=en_US

৬৮. https://www.brookings.edu/articles/hollywood-writers-went-on-strike-to-protect-their-livelihoods-from-generative-ai-their-remarkable-victory-matters-for-all-workers

৬৯. https://www.reuters.com/legal/legalindustry/lawyers-using-ai-must-heed-ethics-rules-aba-says-first-formal-guidance-2024-07-29/?utm_source=chatgpt.com

৭০. https://news.bloomberglaw.com/artificial-intelligence/ai-accuracy-in-legal-research-remains-in-check-your-work-phase

৭১. https://www.cjr.org/the_media_today/an-ai-engine-scans-a-book-is-that-copyright-infringement-or-fair-use.php

Be the first to comment

Leave a Reply

Your email address will not be published.




This site uses Akismet to reduce spam. Learn how your comment data is processed.