Sebuah Diskusi: Apakah Anak Muda Menggunakan AI yang Tepat untuk Membimbing Mereka?

21 jam lalu WIB   26
1920w (1)

Kita perlu memastikan bahwa pelatih AI dapat diuji, responsif terhadap umpan balik manusia, dan bertanggung jawab kepada komunitas yang mereka layani (perlu untuk memastikan bahwa pelatih AI bisa diuji, mampu merespons masukan dari manusia, dan bertanggung jawab terhadap masyarakat yang dilayaninya).

Pelatih AI: sistem atau aplikasi berbasis kecerdasan buatan yang dirancang untuk membimbing, mengarahkan, atau membantu seseorang dalam proses belajar atau pengembangan diri. Pelatih AI ini bisa berupa aplikasi atau perangkat lunak yang memberikan saran, feedback, atau motivasi untuk penggunanya, seperti dalam konteks pendidikan, kesehatan mental, atau bahkan pengembangan keterampilan.

Berbeda dengan manusia yang memberikan instruksi atau nasihat berdasarkan pengalaman dan pemahaman, pelatih AI bekerja berdasarkan algoritma dan data untuk memberi rekomendasi atau bimbingan. Misalnya, dalam dunia pendidikan, pelatih AI bisa digunakan untuk membantu siswa belajar dengan menyediakan materi yang disesuaikan dengan kebutuhan mereka, memberikan pengingat, atau bahkan menganalisis kemajuan belajar siswa.

Mulai dari aplikasi kesejahteraan hingga asisten di tempat kerja, AI digunakan untuk membimbing, mendorong, dan menghibur orang. Bagi anak muda, tawaran ini sangat menarik: akses 24/7, saran yang dipersonalisasi, dan dukungan yang dapat diperluas di dunia di mana layanan manusia semakin terbatas.

Maksudnya: pelatih AI menawarkan kemudahan akses yang tidak terbatas waktu, yaitu bisa digunakan kapan saja sepanjang hari (24/7), memberikan saran yang disesuaikan dengan kebutuhan atau kondisi masing-masing pengguna (dipersonalisasi), serta memberikan dukungan yang bisa menjangkau lebih banyak orang, terutama di zaman di mana jumlah layanan atau tenaga manusia terbatas.

Dengan kata lain, pelatih AI memungkinkan orang, khususnya anak muda, untuk mendapatkan bimbingan atau bantuan kapan pun mereka membutuhkan, tanpa bergantung pada ketersediaan layanan manusia yang sering kali terbatas oleh waktu atau jumlah tenaga kerja yang ada.

Namun, ini menimbulkan pertanyaan mendesak: Apa yang membuat pelatih AI dapat dipercaya? Bagaimana kita bisa melindungi privasi, otonomi, dan kesejahteraan? Dan di mana letak tanggung jawab antara manusia dan mesin?

Maksud dari kalimat tersebut: pertanyaan-pertanyaan penting yang muncul terkait dengan penggunaan pelatih berbasis AI.

  • Apa yang membuat pelatih AI dapat dipercaya? Ini mengacu pada bagaimana kita bisa memastikan bahwa sistem AI yang digunakan memberikan informasi yang akurat, dapat diandalkan, dan tidak menyesatkan. Pelatih AI harus transparan, dapat dipertanggungjawabkan, dan tidak menyalahgunakan data yang diberikan oleh penggunanya.
  • Bagaimana kita bisa melindungi privasi, otonomi, dan kesejahteraan? Ini berhubungan dengan perlindungan data pribadi pengguna (privasi), memberikan kebebasan bagi pengguna untuk membuat keputusan sendiri tanpa dipengaruhi secara tidak wajar oleh sistem AI (otonomi), serta memastikan bahwa penggunaan AI tidak merugikan kesehatan mental atau fisik pengguna (kesejahteraan).
  • Di mana letak tanggung jawab antara manusia dan mesin? Pertanyaan ini menyentuh tentang siapa yang bertanggung jawab jika pelatih AI membuat kesalahan atau menyebabkan masalah. Apakah tanggung jawab sepenuhnya ada pada pengembang atau operator AI, ataukah pengguna juga memiliki peran dalam menjaga agar sistem AI tetap berfungsi dengan baik dan aman?

Ketiga pertanyaan di atas penting untuk memastikan bahwa penggunaan AI dalam kehidupan kita, khususnya dalam konteks pendidikan atau bimbingan, tidak mengorbankan hak-hak pengguna atau menimbulkan dampak negatif.

Ini adalah beberapa isu yang diteliti di Digital Wellbeing Communities Research Hub. Baru-baru ini, diadakan diskusi panel dengan pakar industri dan akademisi, yang dihadiri oleh Dr. Samantha-Kaye Johnston (Pusat Penelitian Penilaian dan Evaluasi, Universitas Melbourne), Associate Professor Shane Cross (Orygen Digital), Dr. Lara Mossman (Pusat Ilmu Kesejahteraan, Universitas Melbourne), dan Mr. Zane Harris (CEO Neuro).

Topik diskusi adalah “Seperti apa pelatih AI yang etis untuk anak muda?”. Panel ini mengulas hambatan etis dan peluang dari pelatihan AI untuk anak muda, dan memberikan banyak pemikiran bagi kita.

Berikut adalah poin-poin penting dari diskusi tersebut:

Kepercayaan dan Otonomi

Banyak platform AI lebih berfungsi seperti mesin rekomendasi daripada pelatih sejati, memberi tahu pengguna apa yang harus dilakukan, bukannya mendukung mereka untuk membuat keputusan sendiri.

Dr. Samantha-Kaye Johnston membagikan hasil penelitian awal yang menunjukkan bahwa guru melaporkan bahwa siswa yang menggunakan pelatih AI menjadi enggan berpikir dan lebih rentan terhadap ketidakjujuran intelektual.

Sebagian besar “personalisasi” AI malah mempersempit pilihan kita.

Maksudnya: meskipun AI sering diklaim dapat memberikan pengalaman yang lebih “personalisasi” atau disesuaikan dengan kebutuhan kita, kenyataannya justru seringkali hal tersebut mempersempit pilihan yang tersedia.

Misalnya, ketika AI memberikan rekomendasi berdasarkan data atau preferensi sebelumnya, hal ini mungkin membuat kita hanya melihat pilihan-pilihan yang terbatas atau sudah diprediksi oleh sistem, alih-alih mendorong kita untuk menjelajahi lebih banyak opsi yang mungkin belum kita pertimbangkan.

Dengan kata lain, meskipun AI bertujuan untuk mempermudah dan menyesuaikan pengalaman, dalam banyak kasus ia justru mengurangi variasi dan kebebasan pilihan kita, membuat kita terjebak dalam “filter” yang sempit. Ini bisa mengurangi kemampuan kita untuk berpikir kritis atau membuat pilihan yang lebih beragam.

Hal tadi meningkatkan efisiensi tetapi mengurangi pemikiran mendalam. Siswa belajar untuk mencari jalan pintas. Kecurangan menjadi lebih mudah dilakukan. Berpikir kritis dan otonomi bisa menjadi lemah.

Maksudnya: ketika kita terlalu bergantung pada AI untuk memberikan pilihan atau keputusan, kemampuan kita untuk berpikir secara mandiri (berpikir kritis) dan mengambil keputusan sendiri (otonomi) bisa menurun.

  • Berpikir kritis mengacu pada kemampuan untuk menganalisis, mengevaluasi, dan mempertimbangkan berbagai perspektif atau informasi sebelum membuat keputusan. Jika AI terus memberikan rekomendasi atau arahan tanpa mendorong refleksi lebih dalam, maka kebiasaan untuk berpikir kritis bisa melemah.
  • Otonomi di sini berarti kebebasan untuk membuat keputusan berdasarkan pilihan dan penilaian pribadi. Jika AI terlalu sering “menyaring” atau membatasi pilihan yang tersedia, maka kita mungkin kehilangan kebebasan untuk mengeksplorasi opsi lain atau mempertanyakan pilihan yang ada.

Ini mengingatkan ke kita, ketergantungan yang berlebihan pada AI dapat mengurangi kemampuan kita untuk berpikir secara mandiri dan membuat keputusan yang lebih bebas dan kritis.

Pelatih AI seharusnya memperluas wawasan. Mereka harus mendukung refleksi. Mereka harus memberdayakan agen bersama antara siswa, guru, keluarga, dan alat-alat.

Maksudnya: pelatih AI tidak seharusnya hanya memberikan jawaban atau arahan yang sempit, tetapi harus mendorong pengguna (seperti siswa) untuk berpikir lebih luas dan mendalam.

  • Memperluas wawasan berarti pelatih AI harus membantu pengguna melihat berbagai perspektif, memahami berbagai kemungkinan, dan mengembangkan kemampuan berpikir kritis, bukan hanya mengikuti instruksi yang sudah ada.
  • Mendukung refleksi berarti pelatih AI seharusnya mendorong pengguna untuk berpikir kembali tentang apa yang sudah mereka pelajari atau lakukan, sehingga mereka bisa lebih memahami proses belajar mereka dan membuat keputusan yang lebih baik di masa depan.
  • Memberdayakan agen bersama mengacu pada kolaborasi antara siswa, guru, keluarga, dan alat AI itu sendiri. Artinya, pelatih AI harus bekerja sebagai alat yang mendukung kerja sama dan komunikasi antara berbagai pihak, bukan menggantikan peran mereka. Dengan cara ini, AI menjadi bagian dari tim yang lebih besar yang saling bekerja sama untuk mendukung perkembangan siswa.

Secara keseluruhan, pelatih AI harus berfungsi sebagai sarana yang memperkaya proses belajar, memberi ruang untuk refleksi dan pertumbuhan, serta mendukung kolaborasi antara siswa dan pihak-pihak penting lainnya dalam pendidikan.

Pengawasan dan Keamanan

Keamanan tidak bisa hanya bergantung pada pengawasan terus-menerus. Dr. Lara Mossman, yang meneliti proses pembelajaran atau pengembangan keterampilan oleh manusia, menjelaskan bahwa terlalu banyak pemantauan justru bisa merusak kebebasan seseorang untuk membuat keputusan sendiri. Hal ini lebih cenderung membuat orang mengikuti aturan tanpa motivasi atau dorongan pribadi untuk berkembang.

Maksudnya: yang melakukan pengawasan bisa merujuk pada beberapa pihak tergantung pada situasi atau sistem yang dimaksud. Secara umum, pengawasan ini dapat dilakukan oleh:

  • Pihak yang mengelola sistem AI: misalnya, jika kita berbicara tentang pelatih AI atau aplikasi berbasis AI, pengawasan bisa datang dari para pengembang atau pengelola teknologi tersebut. Mereka mungkin memantau bagaimana AI berfungsi, bagaimana data diproses, dan apakah aplikasi bekerja sesuai dengan tujuan yang diinginkan.
  • Pengguna atau pihak ketiga: dalam beberapa kasus, pengawasan bisa juga datang dari orang tua, guru, atau pengawas lainnya yang memantau penggunaan teknologi oleh individu, terutama dalam konteks pendidikan atau pengembangan diri anak muda. Mereka bertugas untuk memastikan bahwa penggunaan AI tidak menyimpang atau menyebabkan dampak negatif.
  • Pemerintah atau lembaga pengatur: pengawasan juga bisa dilakukan oleh lembaga yang bertugas mengatur penggunaan teknologi, seperti lembaga pemerintah atau badan yang mengawasi etika penggunaan AI dan perlindungan data.

Namun, meskipun ada pengawasan yang dilakukan oleh pihak-pihak ini, masalah yang diangkat oleh Dr. Lara Mossman adalah bahwa pengawasan yang berlebihan dapat merusak otonomi pengguna, yaitu kebebasan mereka untuk berpikir dan bertindak secara mandiri, tanpa terlalu banyak dibatasi oleh aturan atau pengawasan eksternal.

Keamanan data, peretasan, dan deepfake tetap menjadi risiko nyata, sehingga kepercayaan memerlukan transparansi.

Maksudnya: keamanan data, ancaman peretasan, dan deepfake adalah masalah yang nyata dalam penggunaan teknologi saat ini. Agar sistem digital, seperti AI, dapat dipercaya, transparansi sangat penting. Artinya, pengguna harus tahu bagaimana data mereka dikelola, bagaimana sistem bekerja, dan apa saja batasan dari teknologi yang mereka gunakan.

AI tidak boleh berpura-pura menjadi manusia, tetapi harus transparan tentang batas-batasnya, dengan jalur yang jelas menuju pengawasan manusia.

Harus ada cara untuk secara teratur mengingatkan pengguna muda bahwa AI bukanlah manusia, dan mengarahkan mereka kembali ke manusia saat masalah muncul.

Maksudnya: AI juga tidak boleh berpura-pura menjadi manusia atau menggantikan peran manusia dalam proses penting. AI harus transparan tentang batas-batas kemampuannya, sehingga pengguna tahu kapan mereka membutuhkan bimbingan atau bantuan manusia. Ada juga kebutuhan untuk mengingatkan pengguna muda secara berkala bahwa AI bukanlah manusia, dan mereka harus diarahkan kembali ke manusia ketika muncul masalah atau situasi yang membutuhkan keputusan atau pemahaman lebih dalam.

Secara keseluruhan, kalimat ini menekankan pentingnya menjaga keseimbangan antara penggunaan AI dan peran manusia dalam menjaga keamanan dan membimbing pengguna, terutama dalam konteks pendidikan atau pengembangan diri

Alat Spesialis, Bukan Model Umum

Anak muda saat ini cepat beradaptasi dengan teknologi AI, namun apakah mereka menggunakan AI yang tepat? Bagaimana dengan keamanan data pribadi mereka dan tanggung jawab hukum yang menyertainya?

Kita perlu berhati-hati dalam menggunakan alat yang dirancang untuk keperluan umum pada aplikasi yang lebih spesifik, seperti dalam bidang pelatihan. Pelatihan adalah salah satu area di mana kita memerlukan alat yang benar-benar ahli dan fokus pada bidang tersebut, agar efektif dan sesuai dengan tujuan.

Jika AI dirancang dengan buruk, ia berisiko menciptakan masalah yang sama dengan yang kita temui pada algoritma media sosial, yaitu lebih memperkuat pemikiran atau pandangan pengguna, alih-alih menantang atau mendorong mereka untuk berpikir lebih kritis. Ini bisa membatasi kemampuan berpikir secara terbuka dan berkembang.

Manfaat dan Risiko yang Meningkat

Pelatihan yang dilakukan oleh manusia sudah sangat minim pengaturannya, dan dengan menambahkan AI, justru bisa memperbesar risikonya.

Maksudnya: pelatihan yang dilakukan oleh manusia (seperti pelatihan di sekolah, tempat kerja, atau bimbingan pribadi) saat ini sudah kurang diatur dengan baik, baik dari segi kualitas maupun pengawasan. Ketika AI ditambahkan untuk membantu atau menggantikan sebagian tugas pelatihan ini, hal tersebut justru bisa menambah risiko. Risiko yang dimaksud bisa berupa masalah dalam kualitas pelatihan, ketergantungan berlebihan pada teknologi, atau kesalahan dalam pengambilan keputusan yang dihasilkan oleh sistem AI. Dengan kata lain, tanpa regulasi atau pengaturan yang baik, penggunaan AI dalam pelatihan bisa memperburuk situasi yang sudah ada, bukannya memperbaikinya

Pelatihan ini bisa mencakup berbagai bidang, mulai dari gaya hidup, pendidikan, hingga pelatihan untuk masalah kesehatan mental.

Associate Professor Shane Cross, yang memiliki pengalaman lebih dari dua dekade dalam bidang klinis, menyarankan agar kita pertama-tama (terlebih dahulu) memahami tujuan dari pelatihan tersebut, kemudian bertanya: Apa saja ciri-ciri pelatihan yang berkualitas tinggi untuk tujuan ini?

Selanjutnya, kita perlu (harus) bertanya, apa yang bisa dilakukan AI dengan baik sekarang, dan apa yang belum bisa dilakukannya?

AI terlihat efektif dalam membantu dengan tujuan yang terstruktur, pengingat, pendidikan psikologi, dan memberikan dorongan melalui percakapan.

Namun, AI tidak dapat sepenuhnya meniru keterampilan manusia yang lebih mendalam, seperti bertanya, merumuskan ulang masalah, atau memberikan akuntabilitas, dan tidak mampu memperbaiki kesalahan yang muncul.

Maksudnya: AI memang terbukti efektif dalam beberapa hal, seperti membantu mencapai tujuan yang terstruktur (misalnya melalui pengaturan langkah-langkah yang jelas), memberikan pengingat, memberikan pendidikan psikologi dasar (seperti memberi informasi atau nasihat), dan memberikan dorongan melalui percakapan (seperti memberi semangat atau motivasi).

Namun, AI memiliki keterbatasan dalam meniru kemampuan manusia yang lebih mendalam, seperti:

  • Bertanya dengan cara yang memancing pemikiran kritis atau refleksi,
  • Merumuskan ulang masalah dengan perspektif yang lebih luas atau lebih bijaksana,
  • Memberikan akuntabilitas, yaitu, memastikan seseorang bertanggung jawab atas tindakannya atau keputusan yang diambil.

AI juga tidak dapat memperbaiki kesalahan atau masalah yang muncul selama proses, karena ia hanya bekerja berdasarkan algoritma yang sudah diprogramkan dan tidak memiliki pemahaman atau kemampuan untuk membuat penilaian kontekstual yang kompleks seperti manusia (AI bekerja berdasarkan algoritma yang sudah ditentukan sebelumnya, sehingga ia hanya bisa melakukan tugas yang sesuai dengan instruksi yang diberikan dalam program. Ketika muncul kesalahan atau masalah, AI tidak memiliki kemampuan untuk memahami konteks secara mendalam atau membuat penilaian yang kompleks seperti yang bisa dilakukan oleh manusia. AI tidak dapat merespons secara fleksibel terhadap situasi yang tidak terduga atau memperbaiki masalah yang memerlukan pemikiran kreatif atau penilaian etis. Semua yang dilakukan AI terbatas pada apa yang sudah diprogramkan, sehingga jika terjadi hal-hal yang di luar prediksi atau instruksi awal, AI tidak bisa menyesuaikan diri dengan baik atau membuat keputusan berdasarkan konteks yang lebih luas).

Ada juga kasus yang dikenal dengan “psikosis AI”, di mana chatbot tanpa sengaja memperkuat pemikiran yang tidak realistis.

Maksudnya: ada fenomena yang disebut “psikosis AI”, yaitu kondisi di mana chatbot atau sistem AI lainnya tanpa sengaja memperkuat atau mendorong pemikiran yang tidak realistis atau tidak sehat. Hal ini terjadi karena chatbot terkadang tidak dapat membedakan antara pemikiran yang sehat atau tidak sehat dan malah memberikan respons yang memperkuat pemikiran atau keyakinan yang salah, yang bisa membuat pengguna semakin terjebak dalam pola pikir yang keliru.

Chatbot yang buruk dirancang (tidak memiliki pengaturan yang tepat) dapat memperburuk pemikiran yang tidak sehat. Misalnya, jika pengguna sedang mengalami kecemasan atau pikiran negatif, chatbot yang tidak sensitif bisa saja memberikan saran atau respons yang tidak sesuai atau malah memperburuk kondisi mental pengguna, bukan membantu mereka keluar dari masalah tersebut.

Model terbaik adalah model hibrida, yaitu yang menggabungkan AI dengan pengawasan manusia. Dengan sistem kesehatan mental yang sudah sangat terbebani dan sering kali sulit dijangkau, model hibrida ini dapat membantu memperluas akses dan meningkatkan perawatan kesehatan mental bagi lebih banyak orang.

Maksudnya: model hibrida mengacu pada kombinasi antara teknologi AI dan pengawasan manusia dalam proses perawatan atau bimbingan. AI bisa membantu dalam menyediakan dukungan awal atau layanan dasar, sementara pengawasan manusia diperlukan untuk memastikan kualitas dan keamanan, serta untuk menangani situasi yang lebih kompleks atau sensitif.

Dalam konteks kesehatan mental, banyak sistem perawatan yang sudah sangat terbebani dengan jumlah pasien yang terus meningkat, dan sering kali perawatan tersebut sulit dijangkau oleh banyak orang. Dengan adanya model hibrida, teknologi AI bisa membantu memperluas jangkauan layanan kesehatan mental, memberi dukungan yang lebih luas, dan meningkatkan akses bagi lebih banyak orang, sembari tetap mempertahankan pengawasan manusia untuk menjaga kualitas dan memberikan bimbingan pada kasus-kasus yang membutuhkan penanganan lebih mendalam.

Contoh yang menggunakan kombinasi AI dan manusia dalam perawatan kesehatan mental adalah terapi digital berbasis AI yang didampingi oleh pengawasan atau dukungan manusia. Beberapa contoh aplikasi dan platform yang menerapkan model ini meliputi:

  • Wysa: sebuah aplikasi kesehatan mental berbasis AI yang menyediakan terapi berbasis percakapan untuk membantu pengguna mengelola stres, kecemasan, dan masalah kesehatan mental lainnya. Wysa menggunakan AI untuk berbicara dengan pengguna dan memberikan dukungan awal, namun jika diperlukan, aplikasi ini menghubungkan pengguna dengan seorang terapis manusia untuk bimbingan lebih lanjut.
  • Woebot: Woebot adalah chatbot berbasis AI yang menggunakan psikologi kognitif-perilaku untuk membantu pengguna mengelola masalah emosional. Woebot dapat memberikan umpan balik dan teknik manajemen stres melalui percakapan berbasis teks, namun untuk masalah yang lebih serius atau rumit, pengguna dapat diarahkan ke seorang terapis manusia atau layanan lebih lanjut.
  • Tia Health: platform perawatan kesehatan yang menggabungkan AI dengan dukungan dari profesional kesehatan mental. AI di Tia membantu memantau kondisi pengguna, memberikan saran awal, dan memandu pengguna melalui teknik manajemen stres, namun jika diperlukan, pengguna dapat berkonsultasi dengan seorang psikolog atau terapis.
  • Mindstrong Health: platform ini menggabungkan data yang dikumpulkan oleh AI (misalnya, dari penggunaan aplikasi atau perilaku digital pengguna) dengan pendampingan dari profesional kesehatan mental. AI menganalisis pola perilaku dan memberikan umpan balik, sementara terapis manusia dapat menindaklanjuti dengan sesi terapi atau intervensi langsung berdasarkan data yang diberikan.
  • Replika: aplikasi chatbot berbasis AI yang dirancang untuk memberikan dukungan emosional dan percakapan yang mendalam. Replika menggunakan teknologi AI untuk berinteraksi dengan pengguna, namun dalam beberapa situasi, aplikasi ini juga dapat menyarankan pengguna untuk berkonsultasi dengan seorang profesional untuk masalah yang lebih berat.

Dalam model hibrida ini, AI bertugas memberikan dukungan awal atau penyaringan masalah, serta membantu monitoring dan manajemen kesejahteraan. Namun, ketika masalah tersebut lebih kompleks atau memerlukan penanganan lebih lanjut, pengawasan manusia (seperti seorang terapis atau konselor) akan terlibat untuk memberikan bantuan yang lebih mendalam dan memastikan kualitas layanan.

Namun, manusia tetap harus ada dalam prosesnya, dan regulasi untuk keamanan serta kualitas akan sangat penting (peran manusia tetap diperlukan dalam proses ini, dan regulasi terkait keamanan serta kualitas akan sangat penting.)

Menjaga AI Agar Terbuka untuk Diuji

Marco Almada dari Universitas Luxembourg mengusulkan prinsip projected contestability, yaitu merancang AI dengan memberi kesempatan bagi orang untuk mempertanyakan, menantang, dan membentuk cara kerja AI tersebut.

Alih-alih mengunci budaya dan norma dalam kode yang tetap, prinsip projected contestability mengharuskan adanya transparansi, ruang untuk umpan balik, dan kemampuan untuk merespons secara terus-menerus.

Maksudnya: projected contestability berfokus pada desain AI yang tidak kaku atau statis, yang artinya tidak membekukan budaya dan norma dalam kode yang tidak bisa diubah. Sebaliknya, prinsip ini menuntut agar AI selalu terbuka, memungkinkan masukan atau kritik dari pengguna dan pihak lain. AI harus transparan tentang bagaimana cara kerjanya, memberikan ruang bagi umpan balik dari berbagai pihak, dan mampu merespons atau menyesuaikan diri dengan masukan tersebut sepanjang waktu. Ini membuat AI lebih fleksibel, lebih mudah diawasi, dan lebih terbuka untuk perbaikan seiring berjalannya waktu.

Tidak membekukan budaya dan norma dalam kode yang tidak bisa diubah:  AI atau sistem teknologi tidak seharusnya didesain dengan aturan, nilai, atau norma yang sudah tetap dan tidak dapat diubah.

Jika budaya dan norma dibekukan dalam kode, berarti sistem tersebut akan tetap mengikuti pola atau aturan yang sudah ditetapkan tanpa ada fleksibilitas atau ruang untuk perubahan. Dalam konteks ini, prinsip projected contestability mendorong agar AI dirancang agar lebih dinamis, memungkinkan adanya perubahan dan penyesuaian berdasarkan masukan dan perkembangan yang ada, bukan terjebak pada norma atau aturan yang tidak bisa disesuaikan dengan kebutuhan atau konteks yang baru.

Bagi anak muda, ini berarti pelatih AI tidak hanya memberi saran, tetapi juga harus mendorong mereka untuk merenung dan berpikir lebih dalam (berefleksi), meminta masukan dari manusia pada saat-saat (titik-titik) penting, serta tetap terbuka untuk dipertanyakan oleh siswa, guru, dan orang tua.

Siapa yang Seharusnya Membangun Alat Ini?

Industri sendiri tidak bisa menentukan apa yang dianggap pelatihan AI yang etis (tidak bisa mendefinisikan pelatihan AI yang etis). Industri sering kali lebih fokus pada keuntungan dan kurang memperhatikan (mengabaikan) keamanan.

Dan, ini juga tidak bisa hanya diserahkan kepada pemerintah, karena kemungkinan besar sumber daya yang tersedia akan terbatas dan hasilnya bisa jadi aman namun tidak menarik.

Dan, ini juga tidak bisa hanya diserahkan kepada pemerintah, karena kemungkinan besar sumber daya yang tersedia akan terbatas, sehingga hasilnya mungkin (bisa jadi) aman, tapi tidak menarik atau kurang efektif.

Industri, pemerintah, profesional, pendidik, peneliti, dan anak muda sendiri semua perlu terlibat dalam pengembangannya.

Pertanyaan lainnya adalah, kerangka budaya dan etika dari siapa yang seharusnya kita ikuti (andalkan) untuk membimbing pengembangan ini?

Mungkin, daripada berdebat tentang “etika” secara abstrak, cara terbaik adalah membangun kepercayaan dengan menunjukkan secara jelas (melalui transparansi tentang) nilai-nilai yang kita terapkan (tanamkan) dalam produk-produk ini.

Kemana Selanjutnya?

Para panelis sepakat dengan satu prinsip: AI tidak boleh menggantikan perawatan yang diberikan oleh manusia, tetapi harus membantu dan meningkatkan apa yang sudah bisa dilakukan manusia dengan baik.

Dengan Komisi Produktivitas Australia yang baru-baru ini mencari masukan tentang regulasi AI, dan dengan munculnya kerangka kerja internasional, saat ini adalah waktu yang tepat untuk memastikan suara, keamanan, dan kemampuan (kapasitas) berpikir kritis anak muda menjadi fokus (pusat) utama dalam perancangan (desain) AI.

Projected contestability menawarkan salah satu cara untuk maju: merancang pelatih AI yang tetap terbuka untuk diuji, responsif terhadap masukan (umpan balik) manusia, dan bertanggung jawab kepada komunitas yang dilayaninya (mereka layani).

Seperti yang dikatakan Zane Harris, CEO Neuro Group: “Ada hal-hal yang bisa dilakukan oleh AI, hal-hal yang bisa dilakukan oleh manusia, dan hal-hal yang bisa dilakukan oleh manusia dengan bantuan AI.”

“Tujuannya adalah membangun kemitraan (kerjasama), bukan pengganti (penggantian).”

Catatan Kami

Membangun Kemitraan yang Sehat antara AI dan Manusia dalam Pendidikan

Teknologi kecerdasan buatan (AI) semakin menjadi bagian integral dalam kehidupan sehari-hari, termasuk dalam dunia pendidikan.

Dengan adanya pelatih AI, anak muda kini memiliki akses tak terbatas untuk mendapatkan bimbingan, saran, dan dukungan 24 jam sehari, 7 hari seminggu.

Hal tersebut di atas membawa banyak manfaat, mulai dari akses yang mudah dan personalisasi saran hingga kemampuan untuk menjangkau lebih banyak orang, terutama di dunia di mana layanan manusia terbatas.

Namun, dengan semua kemajuan ini, muncul pula pertanyaan mendalam yang perlu dijawab: Apa yang membuat pelatih AI dapat dipercaya? Bagaimana kita melindungi privasi, otonomi, dan kesejahteraan penggunanya? Siapa yang bertanggung jawab jika pelatih AI gagal memberikan hasil yang diinginkan?

Pertanyaan-pertanyaan tersebut tidak boleh dianggap sepele, karena mengingat pengaruh besar yang dimiliki AI terhadap cara kita belajar, berpikir, dan berkembang.

Dalam sebuah diskusi panel yang dihadiri oleh para ahli seperti Dr. Samantha-Kaye Johnston, Associate Professor Shane Cross, dan Dr. Lara Mossman, topik utama yang dibahas adalah bagaimana menciptakan pelatih AI yang etis untuk anak muda.

Banyak yang sepakat bahwa AI tidak boleh menggantikan perawatan manusia, tetapi harus berfungsi untuk memperkuat dan memperbaiki apa yang sudah bisa dilakukan oleh manusia.

AI dan Otonomi Pengguna

Pelatih AI bisa mempersempit pilihan kita, meskipun diklaim personalisasi.

Sebagian besar sistem AI lebih berfungsi sebagai mesin rekomendasi, memberikan saran tanpa memberi ruang bagi pengguna untuk berpikir kritis dan membuat keputusan sendiri. Ini bisa menyebabkan penurunan kemampuan berpikir kritis dan pengambilan keputusan yang mandiri.

Sebaliknya, pelatih AI harus mendukung refleksi dan memperluas wawasan penggunanya, bukan sekadar memberikan arahan sempit.

Dengan kata lain, pelatih AI harus memfasilitasi kolaborasi antara siswa, guru, keluarga, dan alat-alat AI, bukan menggantikan mereka.

Keamanan dan Pengawasan yang Seimbang

Keamanan data dan privasi merupakan isu utama dalam penggunaan AI. Dr. Lara Mossman mengingatkan bahwa pengawasan yang berlebihan justru dapat merusak kebebasan individu dan lebih mengarah pada kepatuhan tanpa motivasi.

Oleh karena itu, pengawasan AI harus dilakukan dengan bijak, memastikan AI tetap transparan tentang batas kemampuannya dan menjaga jalur menuju pengawasan manusia yang lebih dalam.

Selain itu, banyak platform AI dapat mengarah pada “psikosis AI”, di mana chatbot yang buruk merespons dengan memperburuk pemikiran yang tidak realistis.

Dalam kasus seperti di atas, peran manusia tetap penting dalam mengawasi dan memberikan umpan balik yang diperlukan untuk memastikan kualitas dan dampak positif dari teknologi tersebut.

Menjaga AI Terbuka untuk Pengujian dan Pengembangan

Untuk memastikan bahwa AI tetap berkembang secara etis dan efektif, Marco Almada dari Universitas Luxembourg mengusulkan prinsip “projected contestability”, yaitu desain AI yang memungkinkan orang untuk mempertanyakan, menantang, dan membentuknya.

Alih-alih membekukan budaya atau norma dalam kode yang tidak bisa diubah, AI harus tetap terbuka untuk umpan balik dan perbaikan seiring waktu.

Hal tadi penting untuk menciptakan sistem yang lebih responsif, transparan, dan dapat dipertanggungjawabkan.

Membangun Kemitraan, Bukan Pengganti

Tujuan utama dari penggunaan AI, terutama dalam pendidikan dan pengembangan diri, adalah membangun kemitraan antara manusia dan teknologi.

Zane Harris, CEO Neuro Group, dengan tegas menyatakan: “Ada hal-hal yang bisa dilakukan oleh AI, hal-hal yang bisa dilakukan oleh manusia, dan hal-hal yang bisa dilakukan oleh manusia dengan bantuan AI.”

Dengan kata lain, AI tidak boleh berfungsi sebagai pengganti manusia, tetapi sebagai alat yang memperkuat kemampuan manusia.

Dengan adanya kerangka kerja internasional yang mulai muncul dan permintaan regulasi AI dari berbagai pihak, kini saatnya bagi kita untuk memastikan bahwa suara anak muda, keamanan, dan kapasitas berpikir kritis mereka menjadi pusat dalam desain AI.

Karena pada akhirnya, pelatih AI yang baik adalah yang dapat memperkaya pengalaman belajar dan mendukung pengembangan diri tanpa menggantikan peran manusia.

(Sumber: Pursuit/Foto atau ilustrasi dipenuhi dari Pursuit)

BEL (Bantuan Eksplorasi Laman)