Pada suatu sore baru-baru ini, Tudor memberikan asah otak kepada bot kecerdasan buatan bernama Achim Aristoteles.

Pertanyaannya melibatkan tabel 10 kali 10 yang diisi dengan seratus angka. Jika Anda menjumlahkan bilangan terkecil pada setiap baris dan bilangan terbesar pada setiap kolom, ia bertanya, apakah bilangan yang lebih besar akan lebih besar daripada bilangan yang lebih kecil dari bilangan yang lebih besar?

Bot menjawab “tidak” dengan benar. Namun hal itu tidak mengejutkan. Chatbot populer seperti ChatGPT juga bisa memberikan jawaban yang tepat. Perbedaannya adalah Aristoteles membuktikan jawabannya benar. Bot tersebut menciptakan program komputer rumit yang memverifikasi bahwa “tidak” adalah jawaban yang benar.

Chatbots, termasuk ChatGPT dari OpenAI dan Gemini dari Google, dapat menjawab pertanyaan, menulis puisi, merangkum berita, dan membuat gambar. Namun mereka juga melakukan kesalahan yang tidak masuk akal. Terkadang, mereka mengada-ada – sebuah fenomena yang disebut halusinasi.

Achim, CEO dan salah satu pendiri startup Silicon Valley bernama Harmonic, adalah bagian dari upaya yang berkembang untuk menciptakan AI jenis baru yang tidak akan pernah berhalusinasi. Saat ini, teknologi ini berfokus pada matematika. Namun banyak peneliti terkemuka percaya bahwa teknik yang sama dapat diperluas ke pemrograman komputer dan bidang lainnya.

Karena matematika adalah disiplin ilmu yang ketat dengan cara formal untuk membuktikan apakah suatu jawaban benar atau salah, perusahaan seperti Harmonic dapat membangun teknologi AI yang dapat memeriksa jawaban mereka sendiri dan belajar menghasilkan informasi yang dapat diandalkan.

Google DeepMind, laboratorium AI pusat raksasa teknologi, baru-baru ini meluncurkan sistem bernama AlphaProof yang bekerja dengan cara ini. Bersaing di Olimpiade Matematika Internasional, kompetisi matematika utama untuk sekolah menengah, sistem ini mencapai kinerja “medali perak”, memecahkan empat dari enam masalah kompetisi. Ini adalah pertama kalinya sebuah mesin mencapai level itu.

“Ini adalah cara mengatasi halusinasi,” kata David Silver, ilmuwan riset utama di Google DeepMind. “Bukti adalah salah satu bentuk kebenaran.”

Dengan menggunakan metode serupa, beberapa peneliti yakin mereka pada akhirnya bisa membangun sistem AI yang lebih baik dalam matematika dibandingkan manusia mana pun. Itulah tujuan Achim dan salah satu pendirinya Vlad Tenev, yang paling dikenal sebagai CEO perusahaan perdagangan saham online Robinhood. Perusahaan baru mereka, Harmonic, telah mengumpulkan dana $75 juta dari Sequoia Capital dan investor lainnya.

Pihak lain, seperti Silver, percaya bahwa teknik ini dapat diperluas lebih lanjut, sehingga mengarah pada sistem AI yang dapat memverifikasi kebenaran fisik dan juga matematika.

Pada tahun 2017, perusahaan termasuk Google, Microsoft, dan OpenAI mulai membangun model bahasa besar. Sistem AI ini menghabiskan waktu berbulan-bulan untuk menganalisis teks digital yang dikumpulkan dari seluruh Internet, termasuk buku, artikel Wikipedia, dan log obrolan. (The New York Times menggugat OpenAI dan Microsoft pada bulan Desember atas pelanggaran hak cipta atas konten berita tentang sistem AI.)

Dengan mengenali pola dalam semua teks tersebut, sistem ini telah belajar menghasilkan teksnya sendiri, termasuk makalah, puisi, dan kode komputer. Mereka juga dapat melakukan percakapan.

Namun teknologinya pun terkadang tampak bodoh. Tampaknya mereka mengungkapkan apa yang telah mereka pelajari dari internet – tidak dapat memverifikasi apakah informasi tersebut benar atau salah, nyata atau hanya dibuat-buat.

Bulan ini, OpenAI meluncurkan versi baru ChatGPT yang dirancang untuk menjawab pertanyaan. Ia menghabiskan waktu “berpikir” untuk mencoba berbagai strategi untuk sampai pada jawaban yang benar. Tapi itu masih melakukan hal-hal yang salah dan sebagainya.

Peneliti seperti Achim mulai memecahkan masalah ini melalui matematika. Dengan matematika, Anda dapat membuktikan secara formal bahwa suatu jawaban benar atau salah.

Sekitar satu dekade lalu, seorang peneliti Microsoft bernama Leonardo de Moura menciptakan bahasa pemrograman komputer khusus untuk membuktikan pernyataan matematika. Bahasa pemrograman yang disebut Lean ini awalnya merupakan alat untuk manusia matematikawan. Namun kini setelah sistem AI cukup terampil untuk menghasilkan kode komputernya sendiri, mereka juga dapat menggunakan Lean.

Harmonic sedang membangun model bahasa besar yang dapat membangun bukti Lean-nya sendiri. Kode lean yang dihasilkannya tidak selalu sempurna. Namun melalui trial and error, mereka dapat belajar untuk memverifikasi solusinya.

“Itu sangat manusiawi,” kata Achim. “Jika Anda mencoba menyelesaikan soal matematika, cobalah beberapa langkah. Dan jika gagal, Anda mencoba yang lain sampai Anda dapat melakukannya dengan benar.

Ketika Aristoteles diminta menjawab soal matematika, ia dapat memeriksa jawabannya. Ini adalah “Apa itu 2+2?” Pertanyaan sederhana seperti Atau bisa berupa permainan asah otak yang lebih kompleks seperti kisi-kisi angka berukuran 10 kali 10.

“Kalau sistem bisa mengeluarkan jawaban, pada dasarnya dijamin benar,” kata Achim.

Ketika Aristoteles memeriksa jawabannya sendiri, ini menjadi cara untuk menghasilkan data digital yang sangat andal yang dapat digunakan untuk mengajarkan sistem AI. Dengan kata lain, Aristoteles dapat menghasilkan data yang dapat digunakannya untuk memperbaiki dirinya.

Para peneliti menyebutnya “data sintetis” – data yang dihasilkan oleh AI yang digunakan untuk melatih AI. Banyak peneliti percaya bahwa konsep ini adalah bagian penting dari pengembangan AI.

Achim dan Tenev percaya bahwa setelah bertahun-tahun berlatih, Aristoteles lebih baik dalam matematika daripada manusia. “Kami ingin ini menjadi secerdas kumpulan semua ahli matematika di dunia,” kata Tenev. “Kami ingin ini memecahkan masalah yang belum pernah terpecahkan.”

Sistem AI yang sangat bergantung pada logika matematika dapat menggunakan teknik yang sama untuk memvalidasi kode komputernya sendiri. Dan jika sistem dapat menghasilkan kode yang dapat diandalkan, sistem dapat mengambil tindakan melalui Internet. Inilah yang para peneliti sebut sebagai agen AI. Seiring dengan kemajuan sistem AI ini, banyak peneliti mengatakan mereka akan mampu mengotomatiskan hampir semua tugas digital.

Namun para peneliti dengan cepat menambahkan bahwa sistem AI ini memiliki keterbatasan. Kode lean dapat membuktikan teorema matematika dan memverifikasi kode komputer, namun tidak dapat menangani seluk beluk kehidupan sehari-hari yang rumit.

“Setelah Anda keluar dari matematika, segalanya menjadi sangat berbeda,” kata Angela Fan, seorang ilmuwan meta-penelitian. Seringkali tidak ada kesalahan yang benar yang dapat dipelajari oleh sistem AI seperti yang mereka lakukan dalam matematika.

Silver mengakui masalah ini. Namun dia juga mengatakan bahwa ada kebenaran yang dapat diverifikasi di dunia nyata. Sebuah batu adalah sebuah batu. Bunyi merambat dengan kecepatan 343 meter per detik. Matahari terbenam di barat. Jika sistem AI mengekstrak informasi dari realitas fisik, sistem tersebut juga dapat memverifikasi kebenaran ini.

“Kebenaran bisa datang dari dunia,” kata Silver. “Jika Anda bisa mendapatkan masukan dari dunia, Anda bisa meningkatkan dan meningkatkan dan meningkatkan.”

Artikel ini muncul pertama kali Waktu New York.



Source link