
Apa Itu RLHF? Pengertian dan Cara Kerjanya
Reinforcement Learning from Human Feedback (RLHF) adalah pendekatan pelatihan model kecerdasan buatan yang menggabungkan pembelajaran penguatan dengan penilaian manusia. Teknik ini memungkinkan AI memahami preferensi manusia untuk menghasilkan respons yang lebih relevan, alami, dan etis.