SUARA ANDA DI CLONING AI: MASA DEPAN ATAU BENCANA? - Berita Dunia
← Kembali

SUARA ANDA DI CLONING AI: MASA DEPAN ATAU BENCANA?

Foto Berita

Dunia teknologi kembali berdecak kagum, sekaligus was-was. ElevenLabs, sebuah perusahaan inovatif, berhasil mengembangkan teknologi kecerdasan buatan (AI) suara yang sangat canggih. Lewat CEO sekaligus salah satu pendirinya, Mati Staniszewski, perusahaan ini unjuk gigi dengan kemampuan meniru suara persis aslinya hanya dari sampel audio yang sangat singkat. Bahkan, suara pembawa berita terkenal Al Jazeera, Neave Barker, berhasil di-cloning dengan sempurna.

Staniszewski menjelaskan, potensi teknologi AI suara ini sangat revolusioner. Ia bisa mengubah drastis industri sulih suara (dubbing) film dan game, merevolusi metode pendidikan, bahkan menawarkan harapan besar bagi mereka yang kehilangan kemampuan bicara untuk dapat berkomunikasi kembali. Bayangkan, seseorang bisa "mendapatkan kembali" suaranya melalui teknologi ini.

Namun, di balik janji-janji manis itu, tersimpan ancaman yang tak kalah besar. Teknologi ini sangat rentan disalahgunakan. Dari mulai penipuan lewat telepon atau pesan suara palsu, penyebaran disinformasi yang meresahkan, hingga operasi psikologis yang manipulatif untuk tujuan tertentu. Deepfake suara bisa menjadi senjata ampuh untuk menyebarkan berita bohong, merusak reputasi, atau bahkan memengaruhi hasil pemilu, menciptakan kekacauan dan erosi kepercayaan publik.

Merespons kekhawatiran ini, ElevenLabs mengaku sedang mengembangkan langkah-langkah keamanan untuk deteksi penyalahgunaan dan berencana menjalin kemitraan dengan pemerintah. Salah satunya disebut-sebut adalah dengan Ukraina, yang tengah berupaya membangun "negara agen" berbasis teknologi. Meski demikian, pertanyaan krusial tetap menggantung: Ketika suara kita sudah menjadi "perangkat lunak", siapa yang punya kendali penuh atasnya, dan hak-hak apa saja yang masih tersisa bagi pemilik suara asli? Ini menjadi pekerjaan rumah besar bagi regulator dan masyarakat global untuk menyeimbangkan inovasi dan etika.


Bagikan berita ini:

WhatsApp Facebook