অর্ধেকেরও বেশি রাশিয়ান কোম্পানি কৃত্রিম বুদ্ধিমত্তা (এআই) অ্যাপ্লিকেশনের কারণে ডেটা ফাঁসের বিষয়ে উদ্বিগ্ন। অটোমেশন ব্যক্তিগত তথ্য এবং বাণিজ্য গোপনীয়তা উভয়ের সাথে আপস করার ঝুঁকি বাড়ায়। বিশেষজ্ঞরা উল্লেখ করেছেন যে ডেটা এনক্রিপশন ছাড়া, ফাঁস অপরিবর্তনীয় হতে পারে।

এমটিএস ওয়েব সার্ভিসের একটি সমীক্ষা অনুসারে, 59% কোম্পানি ব্যক্তিগত ডেটা ফাঁসের হুমকিকে সবচেয়ে গুরুতর বলে মনে করে। দ্বিতীয়টি হল বাণিজ্যিক গোপন তথ্য ফাঁস হওয়ার ঝুঁকি, 56% ব্যবসা দ্বারা উল্লেখ করা হয়েছে। AI সমাধানগুলিকে স্কেল করার সময়, আইটি বিভাগগুলি রুটিন কাজগুলিকে স্ট্রিমলাইন করার এবং AI এর সাথে ব্যবসায়িক প্রক্রিয়াগুলির দক্ষতা বৃদ্ধির প্রত্যাশিত সুবিধার উপরে সুরক্ষা উদ্বেগকে রাখে।
একই সময়ে, ম্যাককিন্সির মতে, বিশ্বে এআই সিস্টেম স্থাপনের মাত্রা 88%। সিন্থেটিক নিউরাল নেটওয়ার্কগুলি সক্রিয়ভাবে বিপণনের ক্ষেত্রে এবং আইটি সমাধানগুলির বিকাশে ব্যবহৃত হয়।
কনটেন্ট এআই প্রযুক্তির প্রধান সের্গেই ইউডিন বলেছেন, নিউরাল নেটওয়ার্ক ব্যবহার করার সময় ডেটা ফাঁসের উচ্চ ঝুঁকি এই প্রযুক্তির প্রকৃতির কারণে। যদিও ক্লাসিক্যাল সফ্টওয়্যার শুধুমাত্র একটি নির্দিষ্ট কাজের বাইরে ডেটা সঞ্চয় বা বিশ্লেষণ না করেই প্রক্রিয়া করে, AI সিস্টেমগুলি বড় ভাষার মডেলগুলিতে তৈরি করা হয় যা আক্ষরিক অর্থে তথ্য “শোষণ করে” এবং অভ্যন্তরীণভাবে প্রসঙ্গ বুঝতে এটি ব্যবহার করে। এবং পাবলিক সার্ভিসের ক্ষেত্রে – অতিরিক্ত প্রশিক্ষণের জন্য।
“সমস্যা হল, একবার খোলা এআই সিস্টেমে, তথ্য আসলে মুছে ফেলা যায় না। এটি লগগুলিতে সংরক্ষণ করা যেতে পারে, প্রশিক্ষণের নমুনাগুলিতে ব্যবহার করা যেতে পারে বা দুর্ঘটনাক্রমে তৃতীয় পক্ষের কাছে প্রকাশ করা যেতে পারে। ফলস্বরূপ, লিক অপূরণীয় হয়ে যায়,” ইউডিন ব্যাখ্যা করেন।
এই ক্ষেত্রে, ডেটা সুরক্ষার একটি গুরুত্বপূর্ণ পদক্ষেপ হল AI ব্যবহারের জন্য একটি অভ্যন্তরীণ নীতি তৈরি করা। নিউরাল নেটওয়ার্কে কোন ডেটা প্রেরণ করার অনুমতি দেওয়া হয়েছে এবং কোন ডেটা কঠোরভাবে নিষিদ্ধ সে সম্পর্কে কর্মীদের প্রশিক্ষণ দেওয়া দরকার।
উদাহরণস্বরূপ, পাবলিক এআই পরিষেবাগুলি প্রায়শই গোপন রাখে না যে তারা কথোপকথনের ইতিহাস সংরক্ষণ করে এবং মডেলগুলি উন্নত করতে এটি ব্যবহার করে। এমনকি যদি ডেটা বেনামে একত্রিত করা হয়, তবুও অননুমোদিত পুনরুৎপাদন বা অ্যাক্সেসের ঝুঁকি রয়েছে। অতএব, তাদের ক্রিয়াকলাপে এআই সিস্টেমগুলি প্রবর্তন করার সময়, কোম্পানিগুলি প্রযুক্তির সাথে নিরাপদে ইন্টারঅ্যাক্ট করার জন্য একটি সামগ্রিক কৌশল তৈরি করবে।
ইউডিন বলেছেন, “ডাটা রক্ষা করার জন্য প্রস্তাবিত কৌশলগুলির মধ্যে একটি হল 'প্লেসহোল্ডার' ব্যবহার করা, যখন আসল নাম, পরিমাণ, ব্যাঙ্কের বিবরণ বা কোম্পানির নামের পরিবর্তে কাল্পনিক ব্যবহার করা হয়। এটি আপনাকে কাজের যুক্তি এবং কাঠামো বজায় রাখতে এবং গোপনীয় তথ্য প্রকাশের ঝুঁকি ছাড়াই AI থেকে প্রাসঙ্গিক উত্তর পেতে দেয়,” বলেছেন ইউদিন।
প্রয়োজনীয় নিরাপত্তা ব্যবস্থাগুলি ব্যবহার করা পরিষেবাগুলিতে গোপনীয়তা সেটিংসও অন্তর্ভুক্ত করে: মডেল প্রশিক্ষণের জন্য কথোপকথন ব্যবহারের অনুমতি দেওয়ার বিকল্পটি অক্ষম করা, নিয়মিতভাবে চিঠিপত্রের ইতিহাস মুছে ফেলা এবং ব্যক্তিগত এবং কাজের কাজের জন্য অ্যাকাউন্টগুলি আলাদা করা।
সোলার গ্রুপের প্রেস এজেন্সি বলেছে যে সরকার এবং বাণিজ্যিক সংস্থাগুলির এন্টারপ্রাইজ সিস্টেম থেকে প্রচুর পরিমাণে ডেটা নিউরাল নেটওয়ার্কে লোড করা হয়। এগুলি কোম্পানি সম্পর্কে সাধারণ তথ্য এবং সংবেদনশীল ডেটা উভয়ই সমন্বিত ফাইল হতে পারে: উদাহরণস্বরূপ, বিস্তারিত গণনা বা মালিকানাধীন আর্থিক সূচক সহ সরঞ্জাম অঙ্কন। তাদের ক্রিয়াকলাপগুলিতে AI নিরাপদে প্রয়োগ করতে, কোম্পানিগুলি বিভিন্ন ধরণের সমাধান সেট ব্যবহার করতে পারে।
“ভবিষ্যতে, আমরা দেখতে পাব যে AI প্রযুক্তি তথ্য সুরক্ষা পণ্যগুলিতে প্রক্রিয়াগুলি স্বয়ংক্রিয় করতে এবং সাইবার আক্রমণ প্রতিহত করার জন্য ব্যবহার করা হবে। এর কারণ হল আক্রমণকারীরা ইতিমধ্যেই পরিকাঠামোতে আক্রমণ করার জন্য বিভিন্ন AI সরঞ্জাম ব্যবহার করছে। এটি দেখা যাচ্ছে যে AI নিজের বিরুদ্ধে লড়াই করবে,” কোম্পানিটি উপসংহারে বলেছে।