Шындық пен жалғанның арасы: жасанды интеллект дәуіріндегі адам бейнесі

(Сурет: @istockphoto.com)
Бүгінде бір ғана фото немесе қысқа видео адамның тағдырын өзгертуі мүмкін. Жасанды интеллекттің дамуы адамдарға суретті өңдеуге, дауысты өзгертуге, тіпті адамның бейнесін мүлде басқа әрекет жасап тұрғандай етіп көрсетуге мүмкіндік берді. Мұндай технология әлемде Deepfake деп аталады.
Deepfake – жасанды интеллект арқылы адамның бет-бейнесін, дауысын немесе қимылын өзгертіп, шынайы көрінетін жалған фото мен видео жасау технологиясы. Бүгінде мұндай контентті жасау үшін арнайы студия немесе қымбат техника қажет емес. Кейбір бағдарламалар мен мобильді қосымшалар арқылы кез келген адам бірнеше минутта жалған бейне жасай алады.
Мәселе – бұл технологияның кейде адамдарды алдау немесе біреудің беделіне нұқсан келтіру үшін қолданылуында.
Әлеуметтік желілерде тараған жалған фото немесе видео тез тарайды, ал оның жалған екені кейін ғана анықталуы мүмкін. Сол уақытқа дейін ол мыңдаған адамға жетіп, түрлі пікір тудырады. Мұндай жағдайлар адамның жеке өміріне ғана емес, қоғамдағы сенімге де әсер етеді.
Бұл жерде маңызды сұрақ туындайды: біз экраннан көрген әр ақпаратқа қаншалықты сенуіміз керек? Егер кез келген бейнені жасанды интеллект өзгерте алса, онда шындықты қалай ажыратамыз?
Ал ертең біреудің фотосын пайдаланып жалған видео жасалса, адамның жеке құқығы қалай қорғалады?
Әлемдік зерттеулер не дейді?
Халықаралық зерттеулерге сүйенсек, 2023–2024 жылдары deepfake алаяқтығы әлем бойынша бірнеше есе артқан. Мысалы, киберқауіпсіздік саласындағы зерттеулерде 2024 жылы deepfake арқылы жасалған қаржылық алаяқтық 700%-ға дейін өскені айтылған. Сонымен қатар сарапшылардың болжамынша, 2026 жылға қарай онлайн алаяқтықтың едәуір бөлігі жасанды интеллект көмегімен жасалуы мүмкін. (Sumsub зерттеуі)
Алаяқтар көбіне адамдардың эмоциясына әсер ететін әдістерді қолданады. Мысалы, олар әлеуметтік желідегі видео, фото немесе дауыс жазбаларын жинап, сол адамның жалған бейнесін немесе дауысын жасайды. Кейін сол бейнені пайдаланып, туыстарына немесе әріптестеріне хабарласып, шұғыл ақша сұрайды.
Мұндай жағдайлар түрлі сценариймен жүзеге асады. Мысалы, қызметкерге компания басшысы сияқты көрінетін адам хабарласып, «шұғыл төлем жасау керек» деп талап етуі мүмкін. Немесе адамға баласының немесе туысының дауысына ұқсас дыбыс жазбасымен хабарласып, «апатқа түстім, ақша керек» деп сендіреді. Бейне мен дауыс шынайы көрінгендіктен, адамдар көбіне тексермей сеніп қалады. Мамандардың айтуынша, мұндай алаяқтықтың басты себебі – адамның эмоциялық реакциясы. Қорқыныш, асығыстық немесе жақын адамға деген сенім адамды тез шешім қабылдауға мәжбүрлейді. Нәтижесінде жәбірленуші ақша аударып немесе жеке мәліметтерін беріп қоюы мүмкін.
Мәселенің шешімі қалай болмақ?
Сондықтан сарапшылар бірнеше сақтық шараларын ұсынады:
*Ең алдымен, кез келген күмәнді хабарламаны міндетті түрде тексеру керек.
*Егер ақша туралы шұғыл өтініш түссе, сол адамның өз нөміріне қайта қоңырау шалу ұсынылады.
*Сонымен қатар банк картасының деректерін, SMS кодтарын немесе жеке мәліметтерді ешкімге бермеу қажет.
*Тағы бір маңызды қадам – әлеуметтік желілердегі жеке ақпаратты шектеу. Ашық жарияланған фото, видео және дауыс жазбалары алаяқтар үшін дерек көзі болуы мүмкін. Сол себепті құпиялық баптауларын дұрыс реттеу де қауіпсіздікке көмектеседі.
Егер адам алаяқтықтың құрбаны болса, ең алдымен банкке хабарласып, шотты бұғаттау, содан кейін құқық қорғау органдарына жүгіну керек. Сонымен қатар дәлел ретінде қоңыраулардың жазбасын, скриншоттарды және ақша аударым деректерін сақтау маңызды.
Жасанды интеллект – үлкен мүмкіндік. Бірақ оны жауапсыз қолдану қоғам үшін жаңа қауіптер туғызуы мүмкін. Сондықтан технология дамыған сайын адамдардың медиа сауаттылығы мен жауапкершілігі де бірге дамуы тиіс.
Мадина ҚАНАТҚЫЗЫ,
Шымкент қаласы,
ЖШС «Қазыбек» ЖББМ-нің 11-сынып оқушысы
Қолданылған дереккөздері:
Qyzylorda News – https://kyzylorda-news.kz; Sumsub – Identity Fraud Report
Sensity AI – Deepfake Research; World Economic Forum – Global Risks Report
Deloitte – Cybersecurity Research





