Membuat jus lapisan saraf LLM meningkatkan kejujuran dan bisa menjadi penangkal halusinasi AI

Membuat jus lapisan saraf LLM meningkatkan kejujuran dan bisa menjadi penangkal halusinasi AI

Di kolom hari ini, saya melihat beberapa penelitian menarik yang secara signifikan dapat meningkatkan kinerja AI generatif dan model bahasa besar (LLM). Pendekatan baru yang muncul baru saja mulai diuji. Waktu akan membuktikan apakah metode ini akan memiliki nilai yang bertahan lama.

Intinya adalah ini. Sebagian besar model AI yang ada cenderung memiliki struktur internal berbasis transfer. Hasilnya mengalir dari satu komponen ke komponen lainnya. Ketika jawabannya ditunjukkan, hasilnya biasanya sama dengan komponen terakhir. Segala sesuatu yang terjadi selama proses pemrosesan tidak lagi diperhitungkan. Hanya hasil akhirnya saja yang dihasilkan dari proses generatif.

Penelitian yang cerdas menunjukkan bahwa kita mungkin dapat mengatasi beberapa masalah yang terkait dengan gangguan AI, seperti AI yang menyebabkan halusinasi atau perbincangan yang membingungkan, dengan memperlengkapi kembali bias transfer informasi. Mari kita asumsikan bahwa setelah mencapai tahap akhir pembentukan respons, mekanisme tambahan kembali beralih ke pemrosesan yang terjadi pada setiap tahap sebelumnya. Mekanisme tambahan ini dapat melihat hutan dari balik pepohonan. Dengan kata lain, analisis komputasi dan matematis dari pemrosesan pada setiap tahap dapat digunakan di bagian paling akhir untuk menentukan hasil akhir yang sebenarnya.

Mari kita bicarakan hal ini.

Analisis terobosan AI ini adalah bagian dari kolom Forbes saya yang membahas kemajuan terkini dalam AI, termasuk mengidentifikasi dan menjelaskan berbagai kompleksitas AI yang penting (lihat tautan di sini).

Saat orang memecahkan masalah

Sebelum saya membahas sisi AI, saya ingin berbagi dengan Anda sebuah analogi umum yang menunjukkan bagaimana manusia, dengan bekerja sama, terkadang dapat mencoba memecahkan suatu masalah. Analogi yang jelas ini akan berguna ketika saya membahas mekanisme misterius kecerdasan buatan dalam LLM.

Katakanlah Anda memiliki sekelompok sepuluh orang yang akan mencoba memecahkan masalah aritmatika sederhana. Kami akan menyusun sepuluh orang berturut-turut dan meminta masing-masing orang bekerja secara individu untuk memecahkan suatu masalah. Mereka semua diberi masalah yang sama.

Orang pertama yang mengantri kemudian memberi tahu orang kedua dalam antrean jawaban yang dia, orang pertama, berikan. Orang kedua kemudian memberi tahu orang ketiga dalam barisan jawaban yang mereka dapatkan, yang mungkin sama atau mungkin tidak sama dengan jawaban orang pertama. Orang kedua akan memutuskan apakah akan menggunakan jawaban orang pertama atau membuangnya dan memberikan jawaban mereka sendiri yang berbeda.

Hal ini berlanjut dengan cara yang sama, berulang kali, berpindah dari satu orang ke orang lain. Karena kita berjumlah sepuluh orang, artinya orang pertama menjawab jawaban orang kedua, orang kedua menjawab jawaban orang ketiga, orang ketiga menjawab jawaban orang keempat, dan seterusnya.

Ketika seseorang dalam antrean menerima jawaban yang disarankan dari orang di depannya, orang yang menerima dapat memutuskan apa yang harus dilakukan terhadap jawaban tersebut. Respons transmisi ini dapat digunakan oleh penerimanya atau dapat pula ia menolaknya. Tidak ada jaminan bahwa respons transmisi benar. Ini mungkin salah. Mungkin ini benar.

Hasil akhir dari penyelesaian masalah

Bayangkan Anda berdiri di ujung barisan orang-orang ini dan tidak dapat dengan mudah mendengar transmisi individu dari jawaban yang disarankan. Orang kesepuluh akhirnya menoleh ke arah Anda dan memberi tahu Anda bahwa jawabannya adalah (katakanlah) angka 642.

Percayakah Anda jawaban ini?

Anda hanya tahu apa yang orang terakhir katakan kepada Anda. Apakah orang kesepuluh ini memperhitungkan jawaban orang kesembilan? Apakah yang kesembilan sudah memikirkan jawaban yang kedelapan? Dll. Mungkin orang kesepuluh hanya mengarang atau memberikan jawabannya sendiri dan memutuskan untuk mengabaikan jawaban orang kesembilan.

Demikian pula, mungkin setiap orang dalam urutan tersebut sama sekali mengabaikan jawaban sebelumnya yang diberikan kepadanya. Ini kelihatannya sangat memalukan. Mungkin selama ini jawabannya dihitung, katakanlah, 648, dan berasumsi bahwa ini adalah jawaban yang benar, tetapi yang Anda tahu hanyalah apa yang dikatakan orang kesepuluh kepada Anda, yaitu bahwa jawaban yang diharapkan adalah 642.

Visibilitas dan kombinasi

Pikirkan sejenak tentang sifat proses yang baru saja saya jelaskan.

Tentu saja, akan lebih baik jika kita bisa memasukkan sepuluh tanggapan dalam jawaban akhir yang berasal dari orang kesepuluh. Inilah yang akan kami lakukan. Ketika orang kesepuluh telah memberikan jawabannya, kita akan meminta sembilan orang lainnya untuk memberi tahu kita apa jawaban mereka.

Kami kemudian dapat menggabungkan sepuluh jawaban sedemikian rupa sehingga kami berharap merupakan jawaban yang lebih baik daripada jawaban tunggal yang berasal dari orang kesepuluh. Mari kita lihat sebuah contoh. Misalkan kita menemukan bahwa jawaban 648 berasal dari orang pertama hingga orang ketujuh, dan hanya orang kedelapan, kesembilan dan kesepuluh yang memberikan 642. Kita dapat memutuskan bahwa mayoritas menang, dalam artian karena lebih dari sepuluh mengatakan jawabannya adalah 648 (tujuh di antaranya menjawab), kita akan menggunakannya sebagai jawaban dan mengesampingkan jawaban 642 (yang hanya diberikan oleh tiga orang).

Ada banyak cara untuk menggabungkan jawaban yang relevan. Mungkin beberapa orang lebih dapat diandalkan dibandingkan yang lain; oleh karena itu, kami akan memberi bobot lebih pada jawaban mereka. Dan sebagainya. Anda dapat memikirkan banyak cara untuk menggabungkan sepuluh jawaban.

Kecerdasan buatan generatif modern

Beralih, saya ingin mendalami sifat AI Generatif dan LLM.

Pengembang AI membuat LLM dengan memindai teks yang ada di Internet. Templat AI cocok dengan teks yang dipindai. Dengan memindai jutaan cerita, narasi, puisi, dll., AI secara matematis dan komputasi mampu berbicara dalam bahasa alami manusia seperti bahasa Inggris dengan lancar. AI pada dasarnya mencerminkan cara manusia menulis.

Di dalam AI terdapat jaringan syaraf tiruan (JST). Ini adalah struktur data berskala besar yang berisi nilai numerik. ANN melakukan sebagian besar pekerjaan dalam hal pencocokan pola bahan tertulis yang dipindai.

Perlu diingat juga bahwa ANN tidak sama dengan jaringan saraf (NN) sebenarnya yang ada di otak Anda. Otak Anda menggunakan jaringan neuron hidup biokimia yang kompleks dan rumit yang saling berhubungan. Beberapa orang dengan nakal menyebut otak manusia sebagai “perangkat lunak basah” (yang merupakan pelesetan dari fakta bahwa komputer memiliki perangkat keras dan perangkat lunak).

ANN disederhanakan jika dibandingkan dan hanyalah tiruan yang terinspirasi dari beberapa aspek otak manusia. ANN sepenuhnya bersifat komputasi dan matematis. Saya menyebutkan hal ini untuk menyoroti bahwa meskipun banyak media cenderung menyamakan ANN dengan NN yang sebenarnya, hal ini bukanlah pembedaan yang sepenuhnya adil. Informasi lebih lanjut tentang ANN dan cara kerjanya dapat ditemukan dalam diskusi saya yang ditautkan di sini.

Lapisan di dalam ANN

Jaringan saraf tiruan berskala besar dibagi menjadi beberapa lapisan, yang masing-masing terdiri dari banyak neuron buatan.

Perancang AI memutuskan berapa banyak neuron buatan yang akan ditugaskan ke setiap lapisan. Demikian pula, perancang AI memutuskan berapa banyak lapisan yang akan terdiri dari keseluruhan ANN. Hari-hari awal LLM berisi ANN yang hanya terdiri dari beberapa lapisan hingga mungkin dua lusin lapisan. AI generatif modern kini menggunakan lebih banyak lapisan. Misalnya, ChatGPT memiliki 96 lapisan.

Mari kita lihat bagaimana lapisan-lapisan tersebut berinteraksi satu sama lain. Ini akan dijelaskan pada ketinggian 30.000 kaki dan akan memberikan gambaran sederhana tentang bagaimana sebenarnya proses kerja bagian dalam terjadi.

Katakanlah Anda telah memasukkan undangan ke LLM. Petunjuk tersebut pada dasarnya diumpankan ke jaringan syaraf tiruan tingkat pertama. Pada level pertama ini, pemrosesan petunjuk yang paling dasar akan terjadi pada level paling bawah. Lapisan pertama akan menghasilkan satu hasil dan meneruskannya ke lapisan kedua.

Lapisan kedua tidak memiliki visibilitas terhadap apa yang terjadi di dalam lapisan pertama. Semua yang diterima lapisan kedua adalah keluaran dari lapisan pertama. Lapisan kedua kemudian melakukan pemrosesan yang sesuai. Setelah pemrosesan selesai, lapisan kedua meneruskan hasilnya ke lapisan ketiga. Tingkat ketiga tidak tahu apa yang terjadi di tingkat kedua. Lapisan ketiga hanya memiliki data keluaran yang masuk dari lapisan kedua.

Begitu seterusnya, melanjutkan aktivitas yang sama hingga tercapai lapisan terakhir. Lapisan terakhir memberikan hasilnya, yang kemudian menjadi jawaban akhir yang akan Anda lihat. Anda tidak tahu apa yang terjadi pada lapisan perantara. Satu-satunya aspek yang Anda ketahui adalah hasil yang keluar dari lapisan terakhir.

Memikirkan Kembali Pendekatan Meneruskannya

Ya, sekarang Anda mungkin sedang menghubungkan titik-titik tersebut. Analogi saya sebelumnya dapat kita kaitkan dengan dilema mekanis LLM ini. Lapisan-lapisan tersebut memainkan permainan menyebarkannya. Pendekatan ini mungkin bukan permainan terbaik di kota.

Daripada hanya mengandalkan level terakhir untuk mendapatkan jawaban akhir, akan sangat berguna jika menyertakan jawaban lain yang dihasilkan selama proses tersebut. Ada banyak cara untuk melakukan ini. Ide dasarnya adalah ketika AI mencapai level terakhir dalam pemrosesannya, kita harus menyertakan sarana untuk memanfaatkan respons dari level sebelumnya.

Studi tersebut mengidentifikasi hal baru ini dan melakukan eksperimen untuk melihat apakah hal tersebut efektif. Penelitian tersebut diberi judul “SLED: Decoding Eigenlogit Evolution to Improve Facticity in Large Language Model.” Penulis: Jianyi Zhang, Da-Cheng Juan, Cyrus Rashtian, Chun-Sun Ferng, Heinrich Jiang, Iran Chen, arXiv19 Agustus 2025, dan menyoroti poin-poin penting berikut (kutipan):

  • “Model bahasa besar (LLM) telah menunjukkan kemampuan luar biasa, namun hasilnya terkadang tidak dapat diandalkan atau salah secara faktual. Masalah halusinasi melemahkan keandalan dan validitas LLM dalam aplikasi praktis.”
  • “Untuk mengatasi masalah ini, kami memperkenalkan Self Logits Evolution Decoding (SLED), kerangka kerja decoding baru yang meningkatkan kepercayaan LLM tanpa bergantung pada basis pengetahuan eksternal atau memerlukan penyesuaian lebih lanjut.”
  • “Dari perspektif pengoptimalan, kerangka kerja SLED kami mengeksploitasi pengetahuan tersembunyi yang dibangun ke dalam LLM dengan memetakan logit keluaran lapisan terakhir ke logit lapisan sebelumnya. Kerangka kerja ini kemudian menggunakan pendekatan gradien perkiraan untuk memungkinkan pengetahuan tersembunyi mendorong penyempurnaan keluaran secara mandiri, sehingga secara efektif meningkatkan akurasi aktual.”
  • “Kami melakukan eksperimen ekstensif dengan LLM berbeda, dengan konfigurasi dan skala berbeda. Hasilnya menunjukkan bahwa SLED secara konsisten meningkatkan akurasi aktual di berbagai tugas dan pengujian, termasuk tugas pilihan ganda, pembuatan terbuka, dan penalaran berantai.”

Overlay versus operasi langsung

Keunggulan pendekatan ini adalah Anda tidak perlu melakukan modifikasi kode mendalam di berbagai tingkat dan struktur jaringan syaraf tiruan. Tidak perlu membuang kode atau struktur data. Pengaturan yang biasa bisa dibiarkan apa adanya. Pada dasarnya, Anda menambahkan bagian baru di akhir proses, sehingga tidak terlalu mengganggu.

Beberapa pemikiran terakhir untuk saat ini.

Ada pepatah terkenal: dua kepala lebih baik dari satu. Secara tidak langsung, kami menyadari bahwa dengan menggabungkan logit tingkat awal dengan logit tingkat akhir, kami menggabungkan banyak hasil yang diusulkan menjadi satu kesatuan yang koheren. Masuk akal untuk berasumsi bahwa respons akhir akan stabil di sekitar nilai aktual yang dikodekan di level awal (dengan asumsi kita melakukan fusi dengan hati-hati). Jawaban akhirnya adalah tas campuran.

Ini adalah cara yang menarik untuk mengatasi kekhawatiran yang ada bahwa program LLM sering kali menyimpang dari fakta sebenarnya dan memberikan hasil yang salah atau fiktif.

Saya teringat kutipan terkenal Jeff Bezos tentang memperluas wawasan kita dalam hal inovasi: “Satu-satunya cara untuk keluar dari kebiasaan adalah dengan menemukan jalan keluar Anda.” Apakah cara-cara inovatif yang menjauhkan kita dari cara umum merancang internal LLM akan membawa kita melampaui keterbatasan AI saat ini masih menjadi pertanyaan terbuka. Sementara itu, mari kita terus kembangkan ide-ide tersebut dan terus berkreasi.

Selamat berpikir out of the box dalam hal desain AI.

Tautan Sumber