제주대학교 Repository

DeepFM-Transformer: DeepFM과 NLP Transformer 결합모델 기반의 추천 시스템

Metadata Downloads
Abstract
제품 설명데이터는 제품을 구매하는 데 매우 중요한 요인이기에, 추천 시스템에서 성능을 높일 수 있는 데이터이다. 기존에 좋은 성능을 보여준 Factorization Matrix 기반 모델은 데이터 특성 간 상호작용 가능하여 추천 시스템에서 좋은 성 능을 보여주지만, NLP 모델이 아니기에 제품 설명 텍스트 데이터를 다른 특성과 조합하여 추천하기가 어렵다. 본 논문에서는 제품 설명 텍스트 데이터를 자연어 처리하고, 다른 특성과 함께 조 합하여 학습하는 추천 모델을 제안한다. 제안된 모델인 DeepFM-Transformer는 특 성 간 상호작용을 학습하는 DeepFM 모델과 제품 특성 텍스트 데이터를 NLP 하는 Transformer 모델을 결합한 추천 모델이다. 연구 결과 Factorization Matrix 기반 모델인 DeepFM에 비하여 평점 예측 RMSE에서 0.00715, xDeepFM에 비하여 0.01503 의 성능 향상을 보여, 제품의 설명이 추천 성능 향상에 영향을 미친다는 것을 밝 혀 내었다.|Product description data is a very important factor in purchasing a product, so it is data that can improve performance in a recommendation system. Factorization Matrix based models show good performance in recommendation systems by enabling interaction between data features, but since they are not NLP models, it is difficult to recommend product description text data in combination with other features. In this paper, we propose recommendation modeling that learns by processing product description text data in natural language and combining it with other features. The proposed model, DeepFM-Transformer, is a recommendation model that combines the DeepFM model, which learns interactions between features, and the Transformer model, which processes natural language text data of product features. As a result of the study, it showed a performance improvement of 0.00715 in rating prediction RMSE compared to the Factorization Matrix-based model DeepFM and 0.01503 compared to xDeepFM, revealing that the product description has an effect on improving recommendation performance Keywords— DeepFM-Transformer, Recommendation system, product description, DeepFM, Transformer, Self-Attention, NLP, deep learning, neural network.
Author(s)
김형우
Issued Date
2024
Awarded Date
2024-02
Type
Dissertation
URI
https://dcoll.jejunu.ac.kr/common/orgView/000000011792
Alternative Author(s)
Kim Hyeong Woo
Affiliation
제주대학교 대학원
Department
대학원 컴퓨터공학과
Advisor
이상준
Table Of Contents
Ⅰ. 서 론 1
1. 연구배경 1
2. 연구 구성 및 기여 2
Ⅱ. 관련연구 4
1. Self-Attention 4
2. Fasttext 5
3. Wide & Deep 6
4. DeepFM 7
1) FM Component 7
2) Deep Component 8
Ⅲ. DeepFM-Transformer 9
1. Transformer Encoder 10
2. DeepFM 12
3. Added Part 12
1) FM과 연결된 DNN 13
2) Deep과 연결된 DNN과 Transformer와 연결된 DNN 14
3) 최종 DNN 15
4) Output Unit 17
1. 실험 설정 17
1) 데이터 셋 17
1.1) Row 데이터 18
1.2) 데이터 분포 21
1.2.1) 영화 데이터의 분포 21
1.2.2) 평점이 포함된 데이터 셋의 데이터 분포 23
1.3) 데이터 전처리 25
1.3.1) 자연어 처리를 위한 전처리 25
1.3.2) 자연어의 벡터화 27
2) 훈련 데이터 셋과 평가 데이터 셋 27
3) 층 및 매개변수 설정 28
4) 평가 지표 28
5) 모델 비교 28
6) 하이퍼 파라미터 설정 29
7) 컴퓨터 사양 29
8) 훈련 시간 및 Epoch 30
2. 성과평가 31
1) DeepFM-Transformer의 최종 DNN에서 첫 번째 층의 뉴런 수 별 성능 31
2) 모델별 RMSE 점수 31
3) 배치 크기 별 각 모델의 RMSE 점수 32
4) 옵티마이저 별 각 모델의 RMSE 점수 34
V. 결 론 35
1. 결론 35
2. 향후 연구 35
Ⅳ. 실 험 17
Degree
Master
Publisher
제주대학교 대학원
Citation
김형우. (2024). DeepFM-Transformer: DeepFM과 NLP Transformer 결합모델 기반의 추천 시스템.
Appears in Collections:
General Graduate School > Computer Engineering
공개 및 라이선스
  • 공개 구분공개
  • 엠바고2024-02-12
파일 목록

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.