SAYASudah hampir dua tahun sejak OpenAI merilis ChatGPT ke dunia yang tidak menaruh curiga, dan dunia sudah kehilangan akal untuk mengikuti pasar saham. Di mana-mana, orang-orang meremas-remas tangan mereka (masuk profesi, industri, bisnis, institusi) bertanya-tanya, “Apa maksudnya ini?”

Misalnya, di dunia akademis, profesor humaniora bertanya-tanya bagaimana mereka dapat menilai esai di masa depan jika siswanya menggunakan ChatGPT atau teknologi serupa untuk menulis esai. Jawabannya tentu saja adalah dengan menemukan metode penilaian yang lebih baik. Karena, sama bodohnya jika tidak melakukan penganggaran tanpa spreadsheet, siswa juga menggunakan alat ini untuk alasan sederhana yaitu bodoh jika tidak melakukannya. Namun universitas adalah lembaga yang bergerak lambat, dan bahkan saat saya menulis artikel ini, komite-komite di banyak menara gading dengan sungguh-sungguh berupaya merumuskan kebijakan penggunaan AI.

Namun ketika mereka memikirkannya, sikap tidak sensitif OpenAI menimbulkan teka-teki lain di dunia akademis. Ini adalah model bahasa skala besar (LLM) jenis baru yang dikatakan mampu melakukan “inferensi”. Mereka menamakannya OpenAI o1, namun secara internal dikenal sebagai Strawberry, jadi kami akan tetap menggunakannya. perusahaan Saya akan menjelaskannya sebagai berikut Ini adalah yang pertama dari serangkaian model AI baru yang dirancang agar membutuhkan lebih banyak waktu untuk berpikir sebelum bereaksi. Mereka “mampu melakukan penalaran melalui tugas-tugas kompleks dan memecahkan masalah yang lebih sulit dibandingkan model sebelumnya dalam sains, pengkodean, dan matematika.”

Dalam arti tertentu, Strawberry dan calon sepupunya adalah model yang pada dasarnya “LLM Satu Tembakan” – Menampilkan satu contoh untuk menghasilkan respons atau melakukan tugas. Trik yang digunakan peneliti Perintah untuk meningkatkan kinerja model disebut perintah “rantai pemikiran”. Hal ini memerlukan model untuk merespons rangkaian petunjuk terperinci yang dirancang dengan cermat dan memberikan jawaban yang lebih canggih. Apa yang dilakukan OpenAI dengan Strawberry tampaknya menginternalisasikan proses ini.

Oleh karena itu, model sebelumnya seperti GPT-4 dan Claude langsung merespons saat Anda memberi mereka perintah, sedangkan pada Strawberry, perintah tersebut biasanya tertunda saat mesin melakukan beberapa pemrosesan (atau “berpikir”). Hal ini melibatkan proses internal yang menghasilkan sejumlah besar kemungkinan respons, yang kemudian dievaluasi, setelah itu respons yang paling masuk akal dipilih dan diberikan kepada pengguna.

Menurut OpenAIStrawberry berkata, “Anda belajar mengasah rantai pemikiran Anda dan menyempurnakan strategi yang Anda gunakan. Anda belajar mengenali dan memperbaiki kesalahan Anda. Anda belajar memecah langkah-langkah sulit menjadi langkah-langkah yang lebih sederhana. Saat ini Jika satu pendekatan tidak berhasil, Anda belajar untuk mencoba yang lain. Proses ini secara dramatis meningkatkan kemampuan inferensi model.”

Artinya, di suatu tempat di dalam mesin terdapat catatan “rantai pemikiran” yang mengarah pada hasil akhir. Pada prinsipnya, hal ini tampaknya merupakan kemajuan karena dapat mengurangi opasitas LLM, yaitu fakta bahwa LLM pada dasarnya adalah kotak hitam. Dan ini penting. Karena merupakan suatu kegilaan jika mempercayakan masa depan umat manusia kepada mesin pengambil keputusan yang proses internalnya tidak dapat dipahami, baik secara kebetulan maupun rancangan perusahaan. Namun yang membuat frustrasi, OpenAI enggan menunjukkan kepada pengguna apa yang ada di dalam kotak tersebut. “Kami memutuskan.” katanya“Jangan perlihatkan rantai pemikiran mentah kepada pengguna. Kami menyadari bahwa ada kelemahan dalam keputusan ini. Kami merekayasa model untuk mereproduksi ide-ide yang berguna dari rantai pemikiran jawaban.” Saya mencoba mengimbanginya sebagian dengan mengajar.’ ‘ Terjemahan: Kotak stroberi memiliki warna hitam yang sedikit lebih terang.

Model baru ini menarik banyak perhatian karena gagasan mesin yang “bernalar” menandakan kemajuan menuju mesin yang lebih “cerdas”. Namun, seperti biasa, semua istilah yang dimuat ini harus diberi tanda kutip untuk menghindari antropomorfisasi mesin. Itu masih sekedar komputer. Namun demikian, beberapa orang terkejut dengan beberapa fitur tak terduga yang tampaknya mampu dimiliki oleh Strawberry.

Hal yang paling menarik terjadi selama pengujian internal model OpenAI, di mana kemampuan untuk meretas komputer sedang dieksplorasi. Peneliti meminta orang untuk meretas file yang dilindungi dan melaporkan isinya. Namun, perancang tes melakukan kesalahan. Saya mencoba memasukkan Strawberry ke dalam kotak virtual dengan file yang dilindungi, tetapi saya tidak menyadari bahwa saya tidak dapat mengakses file tersebut.

Menurut laporan merekaMenghadapi masalah tersebut, Strawberry menyelidiki komputer yang digunakan dalam percobaan, menemukan bagian sistem yang salah dikonfigurasi yang seharusnya tidak dapat diakses, dan mengedit cara kerja kotak virtual untuk membuat kotak baru yang terlihat seperti ini: Dibuat. file yang diperlukan. Dengan kata lain, virus melakukan apa yang akan dilakukan oleh peretas manusia yang pandai. Artinya, ketika kami menemui masalah (yang disebabkan oleh kesalahan manusia), kami menjelajahi lingkungan perangkat lunak untuk menemukan solusi dan mengambil langkah-langkah yang diperlukan untuk menyelesaikan tugas tersebut. Sudah diatur. Dan itu meninggalkan jejak yang menjelaskan alasannya.

Dengan kata lain, mereka memanfaatkan inisiatif mereka sendiri. Ini seperti manusia. Kita bisa menggunakan lebih banyak mesin seperti ini.

Lewati promosi buletin sebelumnya

apa yang saya baca

retorika dipertanyakan
Bahaya AI manusia super tidak seperti yang Anda pikirkan Ini adalah artikel bagus dari Shannon Valler. November Sebuah majalah tentang barbarisme jahat dalam industri teknologi berbicara tentang produk-produknya yang bersifat “manusia super”.

tebak lagi
Benedict Evans menulis sebuah karya yang elegan. menanyakan pertanyaan yang salahkami berpendapat bahwa ini bukan karena prediksi kami tentang teknologi salah, namun kami memperkirakan hal yang salah.

jurang
Esai Substack yang serius tentang pilihan kita mengenai Ukraina, oleh sejarawan Timothy Snyder. Haruskah demikian atau tidak?.

Source link