Sebanyak 27 akaun Instagram yang dipaparkan kepada pemangsa melibatkan pengguna bawah umur.- Gambar Hiasan
WASHINGTON: Sistem perisian automatik Instagram didakwa pernah membantu pemangsa seksual kanak-kanak mencari mangsa menerusi platform tersebut.
Menurut Utusan Malaysia, satu dokumen dalaman bertarikh 2019 yang dikemukakan oleh Suruhanjaya Perdagangan Persekutuan (FTC) Amerika Syarikat (AS) di mahkamah mendedahkan, algoritma Instagram mencadangkan akaun kanak-kanak kepada individu yang dikenal pasti menunjukkan tingkah laku pemangsa pedofilia.
Menurut laporan dalaman Meta Platform Inc, sebanyak 27 peratus daripada cadangan akaun yang dipaparkan kepada pemangsa melibatkan pengguna bawah umur.
Sepanjang tempoh tiga bulan pada 2019, syarikat itu mendapati sebanyak dua juta akaun pengguna bawah umur dicadangkan kepada akaun ‘groomer’.
Syarikat itu turut mendapati bahawa tujuh peratus daripada cadangan yang dipaparkan kepada semua pengguna dewasa di Instagram adalah akaun pengguna bawah umur.
Laporan bertajuk ‘Interaksi Tidak Sesuai dengan Kanak-Kanak di Instagram’ dikongsi dalam kalangan eksekutif syarikat pada Jun 2019 dan dibentangkan di mahkamah persekutuan pada Selasa, sebagai sebahagian daripada saman difailkan FTC terhadap Meta.
Laporan itu juga merangkumi analisis terhadap 3.7 juta pengguna yang menandakan komen tidak sesuai kepada syarikat.
Meta, yang ketika itu dikenali sebagai Facebook, mendapati kira-kira satu pertiga daripada aduan tersebut datang daripada pengguna bawah umur.
Peringkat awal perbicaraan, FTC mengemukakan bukti bahawa Ketua Pegawai Eksekutif Meta, Mark Zuckerberg, tidak menyediakan sumber mencukupi untuk Instagram, walaupun dimaklumkan mengenai isu keselamatan pengguna di platform tersebut.
































