EVOLUSI ARSITEKTUR DEEP LEARNING DALAM PENGEMBANGAN CHATBOT: ANALISIS KOMPARATIF RNN, LSTM, DAN TRANSFORMER UNTUK INTERAKSI NATURAL DAN KONTEKSTUAL
Abstract
Perkembangan teknologi Artificial Intelligence (AI) dan Natural Language Processing (NLP) telah mendorong evolusi signifikan dalam sistem chatbot dari pendekatan berbasis aturan menuju arsitektur deep learning yang lebih adaptif. Penelitian ini menganalisis evolusi arsitektur deep learning dalam pengembangan chatbot melalui systematic literature review terhadap 100 publikasi periode 2020-2025 menggunakan metode Grounded Theory Literature Review. Analisis komparatif menunjukkan pergeseran paradigma dari model sekuensial (RNN dan LSTM) menuju arsitektur berbasis attention mechanism (Transformer). Hasil penelitian mengidentifikasi bahwa Transformer dan variannya (BERT, GPT, T5) mendominasi publikasi terkini (N=12) dengan performa superior dalam pemahaman konteks dan generasi respons natural, sebagaimana ditunjukkan oleh pencapaian BLEU score 85.0 pada sistem tanya-jawab. Meskipun demikian, LSTM masih relevan untuk aplikasi dengan resource terbatas, dataset kecil, dan persyaratan latency ketat, dengan akurasi mencapai 96-99% pada domain spesifik. Studi ini mengungkapkan bahwa pemilihan arsitektur harus disesuaikan dengan konteks aplikasi, ketersediaan data, dan sumber daya komputasi, dengan mempertimbangkan trade-off antara kompleksitas model dan kebutuhan implementasi praktis. Temuan ini memberikan panduan komprehensif bagi praktisi dalam memilih arsitektur optimal untuk pengembangan chatbot yang natural dan kontekstual.
Kata Kunci: Deep Learning, Chatbot, Natural Language Processing, RNN, LSTM, Transformer







