fbpx

Menavigasi Imej dan Laporan Palsu dalam Era AI

Apabila menelusuri media sosial hari ini, kita disajikan dengan pelbagai visual luar biasa: pasangan selebriti yang telah lama berpisah menari bersama semula, nelayan memeluk beruang kutub, malah seorang wanita duduk di atas belakang ikan paus sambil membersihkan kulitnya.

Sebahagian kandungan ini secara terbuka dilabel sebagai hasil ciptaan AI. Namun, apabila ia dikongsi semula berulang kali, konteks asalnya hilang dan batas antara realiti dan rekaan mula kabur. Bagi generasi terdahulu, “melihat” bermakna “percaya”. Kini, prinsip itu tidak lagi terpakai — dan kekeliruan jelas tergambar pada wajah mereka.

Setiap kali saya menemui kandungan yang meragukan, saya akan berhenti sejenak. Saya menyemak maklumat di laman lain, membaca komen, dan menggunakan alat AI untuk menilai kesahihannya. Baru-baru ini saya terlihat sebuah video memaparkan seekor ikan teleskop. Haiwan itu benar-benar wujud, namun video tersebut dicipta menggunakan AI. Dalam ruangan komen, pengguna berdebat — ada yang mengatakan ia palsu, ada yang mendakwa ia benar, dan ada yang percaya ia separuh-separuh. Seorang penonton menulis bahawa amat menyedihkan apabila ramai terus menolak kewujudan haiwan itu hanya kerana menyangka ia rekaan AI. Ketika itu saya tersedar — bahkan realiti pun kini berisiko dipadamkan.

 

Video selebriti menari mungkin kelihatan tidak berbahaya. Video penyelamatan haiwan pula tampak menghiburkan, namun boleh menjadi berisiko jika membuat orang percaya bahawa mereka boleh mendekati beruang kutub atau serigala sebenar. Tetapi bahaya yang lebih besar sudah pun berlaku: penipuan melalui video deepfake yang memaparkan selebriti meminta wang, atau suara AI yang meniru anak sendiri bagi menipu ibu bapa. Ini bukan lagi hiburan — ia penipuan yang membawa kesan nyata.

Video tular kononnya Khairul Aming menjual kuali dan kilangnya banjir adalah palsu sehingga beliau terpaksa membuat penjelasan rasmi di media sosial.

Hakikatnya, imej palsu dan teori konspirasi bukanlah perkara baharu. Kisah pendaratan di Bulan telah lama menjadi bahan perdebatan. Namun perbezaannya kini ialah akses. Setiap individu mempunyai kuasa untuk menghasilkan imej atau video palsu yang kelihatan meyakinkan. Di tangan yang betul, AI boleh membina dan memberi inspirasi. Tetapi di tangan yang salah, kesannya sukar dijangka. Kita memberikan kuasa ini kepada masyarakat sebelum wujudnya undang-undang, perlindungan, atau perbincangan tentang tanggungjawab — dan kini kita sedang berusaha mengejar langkah yang tertinggal.

Di manakah sepatutnya kita menarik garis pemisah? Tidakkah membimbangkan betapa mudahnya manusia diperdaya? Adakah generasi muda akan membesar dengan kebolehan menilai kebenaran, atau adakah mereka akhirnya tidak lagi peduli? Apa yang akan terjadi jika kepalsuan menjadi lebih menarik, lebih popular, dan lebih bernilai daripada kebenaran?

Mari kita renungkan makna dua perkataan ini:
Tiruan – buatan manusia, pengganti kepada yang asli.
Palsu – menipu, berpura-pura, menyesatkan.

Penyanyi tersohor negara, Datuk Seri Siti Nurhaliza Tarudin meminta orang ramai agar tidak terpedaya dengan taktik scammer yang didakwa menggunakan teknologi deepfake AI bagi meniru suara dan wajahnya demi mengaut keuntungan. “Palsu. Jangan percaya scammer. Ini adalah salah satu contoh kes cubaan menipu menggunakan nama, akaun media sosial ada nama dan gambar saya, siap letak suara Al untuk yakinkan orang ramai dan selebihnya ambil mana-mana video siaran langsung saya dengan tujuan nak perangkap supaya orang percaya.”

Menavigasi Kebenaran dalam Dunia Digital

Dalam era media sosial, langkah berhati-hati amat diperlukan:

• Periksa fakta sebelum berkongsi.
• Pelajari tentang kemampuan dan had AI.
• Didik sesama kita untuk berfikir secara kritikal.

Realitinya, dunia maklumat kini meletihkan. Saya sering menyemak kebenaran setiap perkara — bahkan dari laman yang dianggap boleh dipercayai. Rasa curiga telah menjadi naluri baharu. Saya tertanya-tanya, apakah ini tanda arah yang sedang diambil oleh manusia?

Jika AI hari ini sudah mampu mencipta penipuan dan deepfake, bagaimana pula rupa dunia sepuluh tahun akan datang? Adakah kita bakal hidup dalam masyarakat yang sentiasa ragu — yang mana setiap imej, suara, atau memori perlu dipersoalkan?

“Tiruan” tidak semestinya membawa makna negatif. Banyak ciptaan manusia, termasuk AI, mampu menimbulkan rasa kagum. Namun “palsu” dicipta dengan niat untuk menipu. Bahayanya timbul apabila kedua-duanya bercampur sehingga sukar dibezakan.

Bayangkan jika suatu hari nanti kita membina “zoo AI” — tiada lagi haiwan diseksa dalam sangkar, tetapi adakah kita akhirnya akan meminggirkan haiwan sebenar yang hidup dan bernafas? Apa ertinya terhadap ekosistem — dan kemanusiaan kita sendiri?

John Naisbitt pernah berkata:

“Kita mesti belajar menyeimbangkan keajaiban teknologi dengan tuntutan spiritual sifat kemanusiaan.”

Itulah hakikatnya — kita boleh maju, tetapi tidak dengan mengorbankan kehidupan itu sendiri.

Panduan Memeriksa Kesahihan Kandungan

  1. Berhenti sebelum berkongsi. Jika sesuatu kandungan membangkitkan emosi kuat — marah, kagum atau takut — berhati-hatilah. Kandungan palsu dicipta untuk mencetuskan reaksi segera.
  2. Semak sumber. Pastikan ia datang daripada akaun rasmi atau organisasi sahih. Akaun palsu sering meniru logo dan nama dengan sedikit perubahan.
  3. Gunakan carian imej terbalik. Melalui Google Images atau TinEye, anda boleh melihat jika imej itu pernah digunakan dalam konteks lain.
  4. Perhatikan butiran kecil. AI sering tersilap pada elemen halus — jari berlebihan, tulisan kabur, bayangan tidak padan.
  5. Baca ruangan komen. Kadangkala pengguna lain sudah pun membuktikan kandungan itu palsu.
  6. Rujuk lebih daripada satu sumber. Berita benar biasanya dilaporkan oleh beberapa agensi bereputasi.
  7. Dengar dengan teliti. Dalam penipuan panggilan suara, ajukan soalan yang hanya orang sebenar tahu — atau tamatkan panggilan dan hubungi semula menggunakan nombor rasmi.

Tanda-Tanda Kandungan Hasil AI

• Imej atau video terlalu sempurna: warna terlalu terang, kulit terlalu licin, cahaya terlalu seimbang.

Butiran tidak masuk akal: teks yang kabur, bayangan tidak sejajar, aksesori tidak simetri.
Pergerakan janggal:  individu kelihatan “meluncur” atau ekspresi wajah tidak seiring dengan suara.
Kecacatan audio: Jeda yang janggal, bunyi nafas yang tidak seiring, atau suara yang kedengaran mendatar, tanpa emosi atau tidak semulajadi.

Langkah tambahan:
Pastikan masa kejadian selaras dengan sumber lain: Cari klip lain dari masa dan tempat sama untuk pengesahan.
Gunakan laman semak fakta: Snopes, Reuters Fact Check, AFP Fact Check, atau fungsi “About this result” di Google.
Cuba alat pengesan AI: namun jangan bergantung sepenuhnya.

Gunakan gerak hati: jika terasa terlalu sempurna atau terlalu luar biasa, semaklah dahulu. 

 

Tanggungjawab Bersama

Mungkin sebagai masyarakat, kita belum bersedia menerima kehadiran AI. Namun, persoalannya kini bukan lagi tentang persediaan — tetapi tentang tanggungjawab.

Cabaran utama adalah membentuk masa depan yang mana teknologi berfungsi untuk membantu manusia, tanpa menghakis kebenaran itu sendiri.

Leave a Comment

Your email address will not be published. Required fields are marked *