loading…
OpenAI . FOTO/ DAILY
Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs Keahlian saingan padahal ia tidak pernah bekerja Sebagai perusahaan penerbitan tersebut.
Ini adalah masalah halusinasi yang terjadi Ke semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri Sebelum lama.
Para peneliti Ke OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi Lantaran proses pra-pelatihan model AI Memusatkan Perhatian Ke upaya model Sebagai Menyaksikan kata berikutnya Di tepat, terlepas Di apakah kata tersebut benar atau salah.
Artikel ini disadur –> Sindonews Indonesia News: OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi