HY RU EN
Asset 3

Բեռնվում է ...

Էջի վերջ Այլ էջեր չկան բեռնելու համար

Որոնման արդյունքում ոչինչ չի գտնվել

Ինչպես է արհեստական բանականությունն օգտագործվում երեխաների նկատմամբ սեռական բռնության պատկերներ ստեղծելու համար

Երեխաների նկատմամբ սեռական բռնություն պատկերող հազարավոր նկարներ են ստեղծվում արհեստական բանականության (AI) միջոցով։ Բռնության ենթարկված զոհերի հին նկարները օգտագործվում են նոր՝ AI-ով գեներացված նկարներ ստեղծելու համար։

Internet Watch Foundation (IWF) կողմից ստեղծված՝ AI տեխնոլոգիաների չարաշահումների մասին լայնածավալ զեկույցը սահմռկեցուցիչ մանրամասներ է բացահայտում։ 

Հիմնադրամի փորձագետները զգուշացնում են, որ թևակոխել ենք երեխաների նկատմամբ սեռական բռնության գերիրական պոռնոգրաֆիկ պատկերների սարսափելի նոր դարաշրջան:

Նման պատկերներ ստեղծելու համար հանցագործները օգտագործում են բաց կոդով գեներատիվ AI մոդելներ: Տեխնոլոգիան օգտագործվում է նախկինում բռնության ենթարկված երեխաների հարյուրավոր նոր պատկերներ ստեղծելու համար: Հանցագործները կիսում են բռնության պատկերների տվյալների հավաքածուները (data sets), որոնք կարող են օգտագործվել AI մոդելները կարգավորելու և սովորեցնելու համար։ Երեխաների նկատմամբ AI-ով ստեղծված սեռական բռնության նյութերը վաճառվում են ամսական բաժանորդագրություններով:

IWF-ը հետազոտել է dark web-ում գործող մանկապիղծների ֆորումները և հայտնաբերել, որ այնտեղ հնարավոր է գտնել նման կերպ ստեղծված մի քանի հազար պատկեր։

Ըստ IWF-ի հետազոտության՝ AI-ով ստեղծած պատկերները ներառում են մանկահասակ երեխաների բռնաբարության տեսարաններ, նախկինում իրական կյանքում սեռական բռնության ենթարկված նախադպրոցական երեխաների նոր պատկերներ, դեռահասների մասնակցությամբ ԲԴՍՄ նյութեր:

Երբեմն, հայտնի մարդկանց նկարները փոխվում են այնպես, որ նրանք ավելի երիտասարդ, երեխաներին նմանվող տեսք ունենան։ Կան դեպքեր, երբ հայտնի մարդիկ պատկերված են երեխաների հանդեպ սեռական բռնություն գործադրողի դերում։ IWF-ի փորձագետները նշում են, որ dark web-ում գործող նման ուղղվածություն ունեցող ֆորումներում AI-ով գեներացված նկարների պահանջարկի պակաս չկա։

Չնայած այն հանգամանքին, որ երեխաների նկատմամբ սեռական բռնության իրական նյութերը գերակշռում են համացանցում, AI-ով նման նյութերի ստեղծման արագությունը անհանգստացնող է։ Զեկույցը զգուշացնում է, որ մանկապղծություն պատկերող նյութերը գնալով շատանալու են և, հնարավոր է, դառնան էլ ավելի հասանելի։

Զարգացման նման արագ տեմպերի մեջ մեծ դեր է խաղում նաև այն հանգամանքը, որ մարդիկ օգտագործում են բաց, հասանելի ծրագրեր, օրինակ՝ Stable Diffusion-ը։

Ծրագրի թարմացված տարբերակում ընկերությունն արդեն որոշ փոփոխություններ է մտցրել, որը նման նյութերի գեներացնելը ավելի բարդացնում է։ Սակայն, մանկապիղծները օգտագործում են ծրագրային հին տարբերակներ, հատուկ ծրագրային փոփոխություններով և միջամտություններով կարողանում են հարմարեցնել ծրագրերը իրենց ցանկացած պատկերները ստանալու համար։

Dark web-ում հասանելի են նաև տվյալների շտեմարաններ, օրինակ՝ երեխաների դեմքերի և մարմինների շտեմարաններ, որոնց հիման վրա էլ հետագայում AI-ով ստանում են սեռական բռնության տեսարաններ։

Երբեմն, նման նյութերը այնքան գերիրական են, որ փորձագետները դժվարանում են որոշել, արդյոք պատկերը իրական է, թե ստեղծված է AI-ի միջոցով։ Սա բավականին ժամանակատար պրոցես է և տեխնոլոգիաների զարգացման հետ այն էլ ավելի կբարդանա։

AI ծրագրեր ստեղծող ընկերությունները կարող են նոր միջոցներ և մեխանիզմներ ներդնել, դադարեցնելու AI-ի կողմից երեխաների հանդեպ սեռական բռնության պոռնոգրաֆիկ նյութերի ստեղծումը։ Դրանք կարող են ներառել, օրինակ, նկարների ջրանիշավորումը (watermarking), նման նյութերի հայտնաբերման ավելի արդյունավետ գործիքների և հուշումների ստեղծումը։ Այժմ որոշ ընկերություններ փորձում են օգտագործել մեքենայական ուսուցման մոդելներ՝ AI-ի ստեղծած՝ երեխաներ ներառող պոռնոգրաֆիկ նոր պատկերներ հայտնաբերելու համար: Կարևոր է, որ ընկերությունները գիտակցեն նման պարտասխանատվությունը։

Այդ միջոցների ներդրումը որոշ փորձագետներ ուշացած են համարում, քանի որ AI-ը արդեն օգտագործվում է նման նյութերի ստեղծման համար, և մոտակա ժամանակներում տեխնոլոգիաների զարգացման տեմպերը միայն արագանալու են։

Հնարավոր է երեխաների նկատմամբ սեռական բռնության պատկերներից բացի, շուտով սկսեն ստեղծվել նաև տեսանյութեր։

Գլխավոր լուսանկարը՝ Stanford Internet Observatory

Մեկնաբանել

Լատինատառ հայերենով գրված մեկնաբանությունները չեն հրապարակվի խմբագրության կողմից։
Եթե գտել եք վրիպակ, ապա այն կարող եք ուղարկել մեզ՝ ընտրելով վրիպակը և սեղմելով CTRL+Enter