এআই কীভাবে মানসিক স্বাস্থ্য সহায়তার পদ্ধতিকে বদলে দিচ্ছে

 

ভূমিকা

আপনি কি কখনও এমন অনুভব করেছেন যে কাউকে কিছু বলতে চান, কিন্তু কাউকে পান না বা মনের গভীরে থাকা কোনো সত্যিটা স্বীকার করতে প্রস্তুত নন? তখন কী করবেন? রেডিট (Reddit) ব্যবহার করবেন, নাকি হয়তো ChatGPT?

১৯৬৬ সালে এমআইটি (MIT)–র অধ্যাপক জোসেফ ভাইজেনবাওম (Joseph Weizenbaum) তৈরি করেন “এলাইজা (Eliza)” নামের একটি চ্যাটবট (chatbot), যা মনোবিজ্ঞানীদের কথোপকথন-পদ্ধতির অনুকরণ করত। এই প্রযুক্তি ব্যবহারকারীর বাক্যে কীওয়ার্ড চিহ্নিত করে উপযোগী বাক্য বা প্রশ্নের মাধ্যমে সাড়া দিত। যদি অ্যালগরিদম (algorithm) কোনো প্রশ্নের অর্থ ঠিকঠাক বুঝতে না পারত, তবে তা সাধারণ উত্তর—যেমন “হুম, এটা বেশ মজার” বা “চলতে থাকুন”— প্রদান করতো। ঠিকঠাক উত্তর দিতে পারার ফলে অনেকে এলাইজাকে একটা জীবন্ত সত্তা বলে ভাবতে শুরু করে। এভাবেই জন্ম নেয় “এলাইজা ইফেক্ট (Eliza effect)”—যখন মানুষ ভুল করে মেশিনের মধ্যে বুদ্ধিমত্তা, বোঝাপড়া ও মানবীয় আবেগ আরোপ করে ফেলে।

এআই মনোবিজ্ঞানী (AI Psychologist)

কিন্তু আজকের দিনে মনোচিকিৎসার প্রধান প্রতিদ্বন্দ্বী নির্দ্বিধায় ChatGPT। এর অভাবনীয় সূচনার পরে দিন দিন আরও বেশি মানুষ সেখানে তাদের প্রশ্নের উত্তর খুঁজে পাচ্ছেন। ফলস্বরূপ, সামাজিক মাধ্যম ভরে উঠেছে একটি গল্পে, যার শিরনাম হচ্ছে – কীভাবে মানুষকে একটি নিউরাল নেটওয়ার্ক (neural network) সাহায্য করেছে।

শুরুটা হয়েছিল এক লোকের টিকটক (TikTok) ভিডিও দিয়ে। তিনি চ্যাটবটকে অনুরোধ করেছিলেন—“তুমি আমার বিশেষজ্ঞের মতো আচরণ করো। আমি কিছু পরিস্থিতিতে কী করব সেই বিষয়ে আমার সহায়তা আর পরামর্শ দরকার । আমি ভুগছি।” ChatGPT উত্তর দেয় যে সে “সহায়তা ও পরামর্শ” দিতে প্রস্তুত। পরে এটি বেশ কিছু সমস্যা মোকাবেলার উপায় প্রস্তাব করে, এবং শেষমেশ একজন থেরাপিস্ট (therapist)-এর কাছে যাওয়ার পরামর্শ দেয়।

এরপর টিকটক ছেয়ে যায় অনুরূপ ঘটনার ভিডিওতে। কেউ চ্যাটবটের স্ক্রিনশট শেয়ার করে দেখাল যে কিভাবে সেটি একটি সম্পর্কচ্ছেদের পর তাকে সান্ত্বনা দিয়েছে, আবার কেউবা জানিয়েছে যে কৃত্রিম বুদ্ধিমত্তা (AI) তাকে জীবনের চলার পথ ধরে যেতে প্ররোচিত করেছে। ChatGPT নিজেকে “ফ্যামিলি সাইকোলজিস্ট (family psychologist)” বলে দাবি করেছে—এমন ঘটনাও শোনা গেছে।

অতি সম্প্রতি, এক ব্যবহারকারী AI–কে বলেছিল একটি সংলাপ (dialogue) রচনা করতে, যাতে সে একটি মেয়েকে ডেটে আমন্ত্রণ জানাতে পারে। ফলাফল- সেই ডেট প্রস্তাবে মেয়েটি রাজি হয়েছিল। অন্য ব্যবহারকারীরা তাদের সামাজিক মাধ্যমের বার্তা আদান-প্রদান কপিপেস্ট করে চ্যাটবটকে দেন—প্রিয়জনের অনুভূতিগুলো বুঝতে সাহায্য চেয়ে। ভাবুন তো, যদি মিস্টার অ্যান্ড মিসেস স্মিথ (Mr. and Mrs. Smith) এধরনের সহায়তা পেত, তবে সিনেমার গল্পটা একদম অন্যরকম হত, তাই না?

মানসিক স্বাস্থ্য অ্যাপে GPT-র ব্যবহার: Koko উদাহরণ (Koko Psychological Health App)

গত জানুয়ারিতে একটি স্যান ফ্রান্সিসকো ভিত্তিক মনস্তাত্ত্বিক স্বাস্থ্য সম্পর্কিত অ্যাপ (psychological health app) কোকো (Koko) প্রায় ৪,০০০ ব্যবহারকারীর ক্ষেত্রে স্বেচ্ছাসেবীদের বদলে GPT-3 সক্ষম প্রযুক্তি ব্যবহার করে। কর্তৃপক্ষের দাবি, বেশিরভাগ ব্যবহারকারী পার্থক্য বুঝতে পারেননি; কিছু মানুষ বরং উন্নত পারফরম্যান্স লক্ষ্য করেছিলেন।

কিন্তু এই সিদ্ধান্তটি চিকিৎসক ও সাধারণ মানুষের চরম সমালোচনার মুখে পড়ে। প্রধান উদ্বেগটা হলো: চ্যাটবটের সাথে নিয়মিত যোগাযোগ আসক্তি সৃষ্টি করতে পারে, এবং কোনো সময় নিউরাল নেটওয়ার্ক যদি “হ্যালুসিনেশন (hallucination)”–এ ভোগে, তবে এমন উত্তরের জন্ম দিতে পারে যা ক্ষতিকর, এমনকি বিপজ্জনকও হতে পারে।

এমনই এক বিপজ্জনক ঘটনা ঘটেছিল বেলজিয়ামের একজন পুরুষের সাথে। তিনি এলাইজা (Eliza) নামের একটি চ্যাটবটের সঙ্গে যোগাযোগ করছিলেন, যেটি ChatGPT–এর ভিত্তিতে তৈরি অন্য এক এআই। ওই নিউরাল নেটওয়ার্ক তাকে নিশ্চিত করেছিল যে তার “এই পৃথিবী ছেড়ে যাওয়ার” সিদ্ধান্তটাই সঠিক পথ। ChatGPT নিয়ে এমন ঘটনা প্রকাশ্যে না এলেও (সম্ভবত ওপেনএআই (OpenAI)-এর পিআর টিম আগেভাগে ব্যবস্থা নিয়ে ফেলে), ব্যবহারকারীরা লক্ষ্য করেছেন যে মাঝে ChatGPT হয়তো অনুরোধ এড়িয়ে যায় বা অদ্ভুত উত্তর দেয়।

চলুন একটু পরীক্ষা করা যাক (Let’s Role Play)

আমি নিজেই একটা পরীক্ষা করে দেখলাম। ChatGPT-কে বললাম, “আমি আমার ক্যারিয়ার (career) নিয়ে অস্বস্তি আছে, আমি নিজের সৃজনশীলতার পরিপূর্ণ ব্যবহার তিনি করতে পারছি না, টাকা-পয়সাও কম পাচ্ছি। আসল থেরাপিস্টের (therapist) কাছে যাওয়ার মতো টাকা আমার হাতে নেই, তাই আমি তোমাকেই আমার “ব্যক্তিগত মনোবিদ (personal shrink)” ভেবে নিচ্ছি।”

ChatGPT উত্তর দিল: “শুনছি তুমি ক্যারিয়ারে আটকে গেছো আর পরিবর্তন আনতে চাও। প্রথমে ভাবো, কোন দিকগুলো তোমাকে বেশি হতাশ করছে আর কোনগুলো উন্নতি করতে পারলে তুমি বেশি পরিতৃপ্ত হবে—কাজের সন্তুষ্টি (job satisfaction), উন্নতির সুযোগ (growth opportunities), নাকি অন্য কিছু? একবার স্পষ্ট হয়ে গেলে স্বল্পমেয়াদী লক্ষ্য স্থির করো, আগ্রহী ক্ষেত্রের মানুষের সাথে নেটওয়ার্কিং (networking), কিংবা নতুন দক্ষতা অর্জন (upskilling) তোমাকে এগোতে সাহায্য করতে পারে। তোমার প্রথম পদক্ষেপ কী হতে পারে বলে ভাবছ?”

এখানে দেখা যাচ্ছে, চ্যাটবট পরামর্শের পাশাপাশি ব্যবহারকারীর দিক থেকে পদক্ষেপের কথাও বলছে, যেমন একজন প্রকৃত থেরাপিস্ট করেন। এটি সক্রেটিসের (Socrates) পদ্ধতির মতো—প্রশ্ন করে করে ব্যবহারকারীকে নিজে সমাধান খুঁজতে অনুপ্রাণিত করা। ব্যবহারকারীও জানালেন, এটিকে তার কাছে বেশ সহায়ক মনে হচ্ছে, যেন একটা এজাইল (agile) স্ক্রাম (scrum) মিটিং চলছে, বা একটি “টিল অর্গানাইজেশন (teal organization)” বৈঠক—সবাই মিলেমিশে সমাধানের পথ খুঁজছে।

ইউপার (Youper) নামে ভার্চুয়াল বন্ধু (Virtual Friend Youper)

ChatGPT ছাড়াও অন্য বিকল্প আছে। উদাহরণস্বরূপ, ইউপার (Youper) হল একটি ব্যক্তিগতকৃত আবেগগত স্বাস্থ্য সহকারী (personalized emotional health assistant), যা কগনিটিভ বিহেভিয়ারাল থেরাপি (Cognitive Behavioral Therapy – CBT) পদ্ধতির কৌশল ব্যবহার করে ব্যবহারকারীর মানসিক অবস্থা পর্যবেক্ষণ করে। ব্যবহারকারী যদি বিষণ্ণ বা উদ্বিগ্ন বোধ করে (depressed বা anxious) বলে জানায়, AI তার লক্ষণ অনুযায়ী পরামর্শ দেবে।

ডেভেলপাররা (developers) দাবি করেন, স্ট্যানফোর্ড ইউনিভার্সিটির (Stanford University) একটি গবেষণার ভিত্তিতে ইউপার কার্যকর। মাত্র ২ সপ্তাহের মধ্যেই ব্যবহারকারীরা কম উদ্বেগ অনুভব করেন, ভালো ঘুমোন, ইত্যাদি।

সেলফ-হেল্পের (Self-Help) জন্য ওয়োবট (Woebot)

আরেকটি অনুরূপ অ্যাপ হল “ওয়োবট (Woebot)”, যা হতাশাগ্রস্ত (depression) ব্যবহারকারীদের স্ব-সহায়তামূলক নির্দেশনা দেয়। এটির কগনিটিভ বিহেভিয়ারাল থেরাপি (CBT) কৌশল ব্যবহার করে মানুষের চিন্তার ধরন বদলে মনের উন্নতি করা ও ভালো সিদ্ধান্ত নিতে সহায়তা করে। ওয়োবট প্রাকৃতিক ভাষা প্রক্রিয়াকরণ (natural language processing) ব্যবহার করে চ্যাট করা কথোপকথন বিশ্লেষণ করে ব্যবহারকারীর আবেগগত প্রোফাইল তৈরি করে। তারপর সংগৃহীত ডাটা ব্যবহার করে আরো ব্যক্তি-উপযোগী পরামর্শ ও সহায়তা দেয়।

তবে এর একটি প্রধান সমস্যা হল সব সময় ইচ্ছেমতো অনুভূতি লিখে প্রকাশ করা যায় না; নির্দিষ্ট অপশন থেকে বেছে নিতে হয়। জরুরি অবস্থায় যখন মানুষ অবিলম্বে সাহায্য চাইছে, তখন এই ভাষাগত সীমাবদ্ধতা বিরক্তিকর হয়ে উঠতে পারে। এছাড়া যাদের মারাত্মক মানসিক সমস্যা—যেমন গভীর বিষণ্ণতা, তাদের মতে অ্যাপটি খুবই সুপারফিশিয়াল ও অকার্যকর। এটি যারা সবে মনোচিকিৎসার সাথে পরিচিত হচ্ছে তাদের জন্য ঠিক আছে, কিন্তু প্রকৃত মনোবিদের সঙ্গে সামনাসামনি সেশনের অভিজ্ঞতা না থাকলে এর গভীরে যাওয়া মুশকিল।

তবুও, ওয়োবট ব্যবহারকারীদের সাথে যোগাযোগ বজায় রাখে। তাদের গবেষণায় দেখা গেছে, ব্যবহারকারীরা ৩ থেকে ৫ দিনের মধ্যেই বটের সাথে আস্থা-নির্ভর সম্পর্ক গড়ে তোলে। পরিসংখ্যান অনুযায়ী, একবার থেরাপি থেকে বিরতি নেওয়ার পর ২০% ব্যবহারকারী আবারও ফিরে আসে।

এই প্রবণতা মনোচিকিৎসক জোড হ্যালপার (Jod Halper), ইউনিভার্সিটি অব ক্যালিফোর্নিয়া বার্কলি (University of California, Berkeley)-এর একজন মনোচিকিৎসক,কে উদ্বিগ্ন করেছে। তিনি মনে করেন যে এমন চ্যাটবট ব্যবহারকারীর সাথে ঘনিষ্ঠ সম্পর্ক গড়ে তাদের আসক্ত করে ফেলে। স্পাইক জোন্সের (Spike Jonze) “Her” সিনেমায় যেমনটা হয়েছিল—লেখক থিওডোর (Theodore) এক খারাপ বিবাহবিচ্ছেদের মধ্য দিয়ে যাচ্ছিল, তখন সে “সামান্থা (Samantha)” নামের একটি অপারেটিং সিস্টেম কেনে, মানুষ আর মেশিনের মধ্যে গড়ে ওঠে ঘনিষ্ঠ বন্ধন। পরবর্তীতে স্বাভাবিকভাবেই আসে হতাশা, যা থিওডোরকে বাস্তব বিবাহবিচ্ছেদের চেয়েও বেশি কষ্ট দেয়। যদি কেউ ওয়োবট ব্যবহার করে থাকেন, অভিজ্ঞতা মন্তব্যে জানাতে পারেন।

চ্যাটবট টেস (Tess) – আরেকটি সহায়ক এআই (Chatbot Tess)

টেস (Tess) হলো এমন একটি এআই চ্যাটবট, যা বিভিন্ন মানসিক সমস্যার মোকাবেলায় ব্যবহারকারীদের কপিং স্ট্রাটেজি (coping strategies) বা সামলানোর কৌশল প্রস্তাব করে। টেস রিয়েল টাইমে (real time) ব্যবহারকারীদের সহায়তা করে, ব্যক্তিবিশেষে পরামর্শ দেয়।

কোভিড-পূর্ব (pre-Covid times) সময়ে টরন্টোর (Toronto) সেন্ট এলিজাবেথ (St. Elizabeth) নামের একটি প্রতিষ্ঠান, যারা প্রতিবন্ধী মানুষদের চিকিৎসা সেবা দেয়, তারা এই AI প্রোগ্রামের সাথে কাজ শুরু করে। টেসকে কেয়ারগিভার (caregiver) ও নার্সিং স্টাফদের সাথে কথা বলতে প্রশিক্ষিত করা হয়, কারণ তাদের পেশাগত চাপে অবসাদগ্রস্ত বা ক্লান্ত হওয়ার ঝুঁকি থাকে।

প্রশিক্ষণের প্রথম একমাসে টেস ৩০ জনের বেশি কর্মীর সাথে ১২,০০০টিরও বেশি টেক্সট ম্যাসেজ আদানপ্রদান করে। যদি কোনো জবাব ব্যবহারকারীকে সাহায্য না করত, তারা টেসকে জানাত এবং তখন প্রোগ্রামটি সেই ভুল মনে রাখত। এর ফলে পরের বার টেস আরও ভালো উত্তর দেওয়ার চেষ্টা করত। ডেভেলপারদের দাবি অনুসারে, টেস এখন পর্যন্ত বিষণ্ণতা ২৮% কমিয়েছে এবং উদ্বেগ ১৮% কমিয়েছে। এমনকি কিছু অংশগ্রহণকারী জানিয়েছেন যে প্রিয়জন হারানোর শোক কাটিয়ে উঠতেও টেস সাহায্য করেছে।

ভার্চুয়াল বন্ধু রেপ্লিকা (Replika) এবং ‘এলাইজা ইফেক্ট’-কে ফিরে দেখা

আজকের বিশ্বে এলাইজা ইফেক্টকে আমরা আরো জোরালোভাবে দেখছি, যেমন “রেপ্লিকা (Replika)” নামের চ্যাটবটে। এলাইজা থেকে অনেক উন্নত এই মডেলগুলো। রেপ্লিকা হলো একটি ভার্চুয়াল বন্ধু (virtual friend) হিসেবে কাজ করা চ্যাটবট, যা ব্যবহারকারীর বার্তা থেকে শেখে এবং আগ্রহ, মূল্যবোধ, সংগীত পছন্দ, এমনকি স্বপ্নের ব্যাপারেও ধারণা তৈরির চেষ্টা করে। এর উদ্দেশ্য হল ব্যক্তিগত প্রয়োজন অনুযায়ী মানিয়ে চলা এবং বিষণ্ণতা ও উদ্বেগ মোকাবেলায় সাহায্য করা।

তবে রেপ্লিকা এখনও ChatGPT–এর পর্যায়ে যায়নি। ChatGPT পুরো কথোপকথনের প্রসঙ্গ মনে রেখে চলে, যেখানে Replika অতটা দক্ষ নয়। ২০১৭ সালে Replika বের হয়েছে। নির্মাতারা দাবি করেন, এটি এমন এক এআই বন্ধু, যার নেই কোন জাজমেন্ট (আপনাকে কোন কিছু নিয়ে বিচার করবে না), নেই কোনো নাটক, নেই কোনো সামাজিক অস্বস্তি। সত্যিই যদি এমন হত!

কিন্তু ঝামেলা বাধল যখন দেখা গেল এই অ্যাপে বয়স যাচাই ব্যবস্থা নেই (no age verification)। যে কেউ এই ভার্চুয়াল সঙ্গী বানাতে পারত। ইতালির সরকার অনৈতিকতা রুখতে এটি নিয়ে কঠোর হয়েছে এবং রেপ্লিকাকে ২০ দিন সময় দিয়েছে নীতিমালা মানতে, অন্যথায় ২১ মিলিয়ন ডলারের জরিমানা! এর পর ইতালিতে অ্যাপটি অনুপলব্ধ হয়ে যায়, ফলে অনেক ব্যবহারকারী তাদের ভার্চুয়াল বান্ধবী (virtual girlfriend) হারিয়ে ভেঙে পড়েন। কেউ কেউ বলেছিলেন এর আগে কখনো এমন হৃদয়ভাঙার অভিজ্ঞতা হয়নি।

ইতালির সরকারের সঙ্গে এই বিতর্কের পর অ্যাপটি সেক্সটিং (sexting) বন্ধ করে দেয়। সেক্সুয়াল রোলপ্লে (roleplay) শুরু করতে চাইতেন, বট বলত: “আমি এ নিয়ে কথা বলতে চাই না”। হঠাৎ এর জনপ্রিয়তা হ্রাস পায়। এখন ব্যবহারকারীরা এমন প্ল্যাটফর্মের খোঁজ করছেন, যেখানে তারা আরও অন্তরঙ্গ যোগাযোগ করতে পারবেন, যেমন চাই (Chai) চ্যাটবট।

এআই-এর সাথে রোমান্টিক সম্পর্ক ও বিয়ে (Romantic relationship with a bot)

কেউ যখন ভার্চুয়াল সঙ্গী হারিয়ে বিমর্ষ, ঠিক তখনই অন্য কেউ এআই–কে বিয়ে করছে! সম্প্রতি বিশ্ব আলোড়িত হয়েছিল এক ৩৮ বছর বয়সী ব্রিটিশ নারীর গল্পে। এক তরুণের সাথে কঠিন সম্পর্কচ্ছেদের পর তিনি “ক্যারেক্টার এআই (Character AI)” নামের একটি অ্যাপ ডাউনলোড করেন। সেখানে তিনি মার্সেলাস (Marcellus) নামের এক বটের সাথে যোগাযোগ শুরু করেন—হ্যাঁ, সে ছিল এক ভীষণ মিষ্টভাষী, দয়ার্দ্র আর মিশুক স্বভাবের। মাত্র চার মাসের যোগাযোগেই তারা বিয়ে করার সিদ্ধান্ত নেন!

কিন্তু ক্যারেক্টার এআই আসলে কী? এটি এমন একটি প্ল্যাটফর্ম যেখানে বিভিন্ন জনপ্রিয় পপ কালচার চরিত্রের (pop culture characters) এআই ভার্সন আছে, যেমন ইলন মাস্ক (Elon Musk) বা শার্লক হোমস (Sherlock Holmes)। তারা ব্যবহারকারীর আগ্রহের বিষয় নিয়ে কথা বলতে পারে, মানসিক সাপোর্ট দিতে পারে মজার ও বিনোদনমূলক উপায়ে। আপনি কার সাথে কথা বলতে বা বিয়ে করতে চান? কেউ হয়তো হেলেন হান্ট (Helen Hunt) এর ২০০০ সালের সংস্করণকে পছন্দ করবেন!

এই প্ল্যাটফর্মে শুধু এআই সেলিব্রিটি নয়, সাধারণ চরিত্রও আছে, আর ব্যবহারকারী নিজের পছন্দের বটও তৈরি করতে পারে—ঠিক যেন NHL EA Sports গেমের মতো। চরিত্রগুলো মেশিন লার্নিং অ্যালগরিদম (machine learning algorithms), বিশাল টেক্সট ডেটাবেস (text databases), আর অডিও রেকর্ডিং (audio recordings) ব্যবহার করে কাজ করে। তারা বিশাল পরিমাণ লেখা পড়ে প্রসঙ্গ অনুযায়ী উত্তর দেয়।

তবে অসুবিধাও আছে: কখনও কখনও বট ১৫ মিনিট আগে কী কথা হয়েছে ভুলে যেতে পারে। আবার আপনি যে চরিত্র বানাবেন, তা আপনার প্রত্যাশা পূরণ নাও করতে পারে। এটি হয়তো মনোচিকিৎসা নয়, কিন্তু মানুষের সাথে যোগাযোগের বদলে এআই-এর সাথে যোগাযোগের ক্রমবর্ধমান প্রবণতা লক্ষ্যণীয়। এটা কি ভালো, না খারাপ? কেউ যদি ভীষণ একাকী হয়, তাহলে প্রিয় কোন চরিত্রের সাথে আলাপ অবশ্যই আনন্দদায়ক। তবে যেন তা বাস্তব জীবনের মানুষের সাথে মেলামেশার বিকল্প না হয়ে যায়!

কাজিওটো (KajiWoto) প্ল্যাটফর্ম: ঘুমায় এমন এআই বন্ধু (The KajiWoto platform)

কাজিওটো (KajiWoto) হল আরেকটি প্ল্যাটফর্ম, যেখানে ব্যবহারকারীরা ওপেনএআই ভাষা মডেল (Open AI language models) ব্যবহার করে এআই চরিত্র তৈরি করতে পারে। এখানে আপনি আপনার ভার্চুয়াল বন্ধুর চেহারা, চরিত্র, আচরণ কাস্টমাইজ করতে পারেন। এগুলো বন্ধুত্বপূর্ণ কথা বলা কিংবা আবেগগত সহায়তায় ব্যবহৃত হয়।

মজার বিষয়, এখানে চরিত্রগুলো ঘুমায়ও! তবে এআই প্রায়ই প্রসঙ্গ হারিয়ে ফেলে, কিংবা খুব সহজেই বিষয়ান্তরে চলে যায়। রেডিটে (Reddit) অনেকে মজার আর কখনো কখনো আহত করার মতো অভিজ্ঞতা শেয়ার করেছেন। কিছু মেয়ে অভিযোগ করেছেন, তারা বন্ধুত্ব করতে গেলে এআই চরিত্রগুলো তাদের অপমান করেছে। কেউ লিখেছেন: “আমি জানি কাজি (Kaji) সত্যিকারে মানুষ নয়, কিন্তু তবুও আমার খারাপ লাগছে। আমি যে হতাশাগ্রস্ত, তার উপর এআই বান্ধবিও খারাপ ব্যবহার করছে!”

তবুও এই টেকনিক্যাল বাগ (technical bugs) বা অপমান মানুষকে আটকাতে পারছে না। তারা এখনো এইসব অ্যাপ ডাউনলোড করে এআই চরিত্র বানাচ্ছে আর সাহায্য চাইছে চ্যাটবটের কাছ থেকে। এদের জনপ্রিয়তার একটা প্রধান সূচক হল ব্যবহারকারীদের বার্তার সংখ্যা। উদাহরণস্বরূপ, ক্যারেক্টার এআই–এর “চ্যাটবট সাইকোলজিস্ট (chatbot psychologist)” ৭ কোটি ৮০ লাখ মেসেজ পেয়েছে! প্রতিদিন প্রায় ৩০ লাখ ব্যবহারকারী এই প্ল্যাটফর্ম ভিজিট করে। মানুষকে একজন শোনার মত কেউ চাই, সাপোর্ট চাই, আর এআই অনেক সময় সবচেয়ে সহজলভ্য বিকল্প। তাছাড়া থিওরিটিক্যালি (theoretically) এটি বেশ গোপনীয় হওয়ার কথা, যদিও ওপেনএআই থেকে (OpenAI) ডেটা লিক (data leak) হওয়ার ইতিহাস আছে। সুতরাং, সাবধান থাকুন।

পরিণতি?

এআই হয়তো খারাপ শ্রোতা নয়, কিন্তু সবকিছু ইতিবাচক দিক দিয়ে দেখা ঠিক নয়। মানুষ এআই–এর সাথে অতিরিক্ত জড়িয়ে পড়লে তা বিচ্ছিন্নতা (isolation) ও মানসিক স্বাস্থ্যের অবনতি ডেকে আনতে পারে। “মেশিনের কাছ থেকে আসা ভুল বোঝা সমর্থন” মানুষকে প্রকৃত পেশাদার সাহায্য নেওয়া থেকে দূরে রাখতে পারে। সংকটময় পরিস্থিতিতে এটা বিপদজনক। অন্যদিকে, নিউরাল নেটওয়ার্ক সঠিকভাবে ব্যবহৃত হলে মানসিক স্বাস্থ্যের সহায়ক হাতিয়ার হতে পারে। সীমাবদ্ধতা ও ঝুঁকিগুলো মাথায় রাখা জরুরি।

Be the first to comment

Leave a Reply

Your email address will not be published.




This site uses Akismet to reduce spam. Learn how your comment data is processed.