SW/인공지능

이메일 및 모바일 제목 최적화를 위한 생성 AI 및 ML 모델 사용

얇은생각 2023. 9. 30. 07:30
반응형

Generative AI ML 모델을 동시에 사용하여 매력적인 주제 라인과 제목을 자동으로 만들어 최대의 참여도를 제공합니다.

이메일 및 푸시 알림의 제목과 제목은 참여율을 결정하는 데 중요한 역할을 합니다. 디지털 통신은 사용자의 주의를 사로잡는 설득력 있는 제목과 간결한 푸시 알림 제목을 만드는 기술을 필요로 합니다. 마케터는 전달할 메시지의 톤과 의도된 대상 청중을 기반으로 제목을 만듭니다. 이 기술을 효과적으로 "교육"하고 디지털 통신을 위해 최적화함으로써 생성 AI 모델은 이 프로세스를 자동화하기 위한 흥미로운 방법을 제공합니다. 기사는 대규모 언어 모델과 결합하지 않고 효율적인 주제 라인을 생성하는 것입니다. 이들과 결합하여 개방적인 모델과 함께 학습하는 것입니다.

 

 

이메일 및 모바일 제목 최적화를 위한 생성 AI 및 ML 모델 사용

 

 

방법론

오늘날의 LLM이 올바른 프롬프트로 쉽게 생성할 수 있는 매력적인 제목 줄을 만드는 것만이 아닙니다. 목표는 수신자가 메시지를 클릭하고 보도록 유인하는 컨텍스트 및 콘텐츠에 대한 이상적인 후보를 생성하는 것입니다. 머신 러닝(ML) 모델, 특히 랜덤 포레스트 알고리즘은 적절한 교육을 받으면 수신자가 메시지를 클릭할 가능성을 높은 신뢰도로 예측할 수 있습니다. LLM과 예측 ML 모델을 결합하면 고품질 제목을 생성할 수 없습니다.

접근 1: 훈련 데이터에서 길이, 언어 복잡성, 정서 및 해당하는 개방률(라벨)과 같은 주제 라인의 주요 특징을 추출하여 예측 ML 모델을 훈련합니다. LLM을 사용하여 여러 후보 주제 라인을 생성합니다. ML 모델은 주요 특징을 추출하여 입력으로 전달함으로써 각 후보 주제 라인에 대한 개방률을 예측할 수 있습니다. 예측 개방률이 가장 높은 주제 라인을 선택합니다.

접근 2: 이전 접근 방식과 유사하게, 모델은 주요 특징을 추출하기 위해 데이터 세트를 전처리하는 대신 데이터 세트의 원시 메시지와 해당 개방률 레이블에 대해 훈련됩니다. 이 훈련된 모델을 사용하여 LLM에 의해 생성된 제목 라인에 대해 예측 개방률이 가장 높은 제목 라인을 선택하십시오.

접근 3: 이 접근법은 접근법 1을 확장합니다. LLM은 주요 기능에 대한 교육을 받은 것 외에도 이메일 콘텐츠, 개방률, (긴급도, 긍정도 등) 및 대상 사용자 개인 정보(인구 통계 등)를 기반으로 주제 라인을 생성하도록 미세 조정됩니다. 미세 조정된 LLM은 여러 후보 주제 라인을 생성하고, 주제 라인에 대해 훈련된 예측 ML 모델은 후보 중에서 가장 효과적으로 선택합니다

핵심 아이디어는 LLM의 언어 능력과 기존 ML 모델의 예측력을 함께 사용하여 활용하는 것입니다. LLM은 후보를 생성한 다음 ML 모델에 의해 점수를 매깁니다.

 

 

교육 단계

모델 교육을 위한 데이터 수집

첫 번째 단계는 이메일 및 모바일 푸시 알림의 샘플을 수집하는 것입니다. 교육 데이터는 메시지 내용, 제목, 채널 및 개방률과 함께 톤 및 청중 레이블도 포함해야 합니다. 데이터 세트에서 각 항목에 다음과 같이 레이블을 지정하십시오. 메시지에서 '채널' 유형은 메시지 또는 콘텐츠가 전달되는 매체를 의미합니다. 이메일 및 모바일 푸시 알림과 같은 최적의 제목 줄 길이와 스타일이 다릅니다.

#Sample Training Data

Content: New product announcement!
Subject: Announcing our new XYZ product!
Tone: Exciting
Audience: Tech enthusiasts
Channel: Email
Open rate: 0.25

Content: Black Friday deals are here!
Title: Black Friday Deals!
Tone: Urgent
Audience: Bargain hunters
Channel: Mobile
Click rate: 0.15

 

 

열기/클릭 속도 라벨이 있는 충분한 교육 데이터를 제공해야 합니다.

 

 

LLM(대규모 언어 모델) 세부 조정

수집된 샘플을 기준으로 LLM 모델을 미세 조정합니다. 이는 채널을 기준으로 제목이나 제목을 생성하도록 가르칩니다. 또한 채널 외에도 톤과 시청자 세그먼트를 지정하는 것이 중요합니다. 이는 채널뿐만 아니라 메시지의 톤과 메시지의 의도된 수신자에 대한 텍스트 생성을 조건으로 합니다.

예를 들어 OpenAI GPT를 사용하는 경우 모델을 미세 조정하려면 데이터 집합에 대한 JSON 파일을 만듭니다. 그런 다음 이 파일을 사용하여 OpenAI CLI 도구의 fine_tune.create 명령을 사용하여 OpenAI 모델을 미세 조정할 수 있습니다.

JSON
{"prompt": "Content: New product announcement! Tone: Exciting Audience: Tech enthusiasts Channel: Email", "rate": "Open rate: 0.25", "completion": "Subject: Announcing our new XYZ product!"}
{"prompt": "Content: Black Friday deals are here! Tone: Urgent Audience: Bargain hunters Channel: Mobile", "rate": "Click rate: 0.15", "completion": "Title: Black Friday Deals!"}

 

 

예측 변수 ML 모델 교육

LLM 모델의 미세 조정에 따라 ML 모델은 가장 효과적인 주제 라인을 채점하고 선택하도록 훈련되어야 합니다. 이는 다양한 예측 모델을 사용하여 달성할 수 있습니다. 랜덤 포레스트 알고리듬을 사용하여 어떤 주제 라인이 가장 높은 개방률을 가질 것인지 예측할 수 있습니다. 훈련 데이터 세트의 주제 라인을 추출해야 합니다. 이러한 주요 기능의 벡터는 랜덤 포레스트 모델을 훈련하는 데 사용될 수 있습니다.

from sklearn.ensemble import RandomForestRegressor

#Train Model
model = RandomForestRegressor()
model.fit(X, y)

# Where X contains the key feature vectors and y contains the open rate label for each corresponding subject line
# For example;
# X = [
#  [12, 0.6, 4], # Subject 1
#  [8, -0.2, 1], # Subject 2
#  [10, 0.1, 2] # Subject 3
# ]
# Example open rate labels
# y = [0.02, 0.05, 0.10]

 

 

주요 피쳐 벡터 추출

주요 기능을 추출하기 위해 몇 가지 오픈 소스 라이브러리를 사용할 수 있습니다. 감성 추출에는 TextBlob의 내장 감성 방법과 VADER(Valence Aware Diction and Sentiment Reasoner)가 유용할 수 있습니다. TextStat를 사용하여 읽기 쉬움, Flesch-Kincaid 등급 및 기타 가독성 측정 기준을 결정할 수 있습니다. RAKE(Rapid Automatic Keyword Extraction Extraction)는 키워드를 추출할 수 있습니다.

from textblob import TextBlob
import rake
import nltk

def get_features_of_subject_line(text):

  # Length of Subject Line
  length = len(text)

  # Sentiment
  sentiment = TextBlob(text).sentiment.polarity

  # Keyword matches
  keywords_to_match = ["sale", "new", "hot", "free"]
  matches = 0
  rake_extractor = rake.Rake()
  keywords = rake_extractor.extract_keywords_from_text(text)
  for kw in keywords:
    if kw in keywords_to_match:
      matches += 1

  # Readability
  readability = nltk.textstat.flesch_reading_ease(text)
  return [length, sentiment, matches, readability]

 

 

전자 메일의 경우 길이, 감성, 키워드 일치 및 가독성과 같은 기능을 추출합니다. 모바일 기능에는 문자 길이, , 이모지 및 세분화가 포함됩니다. 주요 차이점은 전자 메일과 모바일 간의 스타일적 차이를 고려하여 채널별 기능을 추출하는 것입니다. 모델은 각 채널의 특성을 적절하게 가중치를 부여합니다. 이를 통해 각 채널의 제약 조건과 시청자 기대치에 맞게 주제 라인 생성과 선택을 최적화할 수 있습니다.

 

 

예측 단계

제목 줄 후보 생성

새 메시지의 제목 줄 후보를 생성하려면 메시지 내용, 채널, 원하는 톤 및 대상 시청자 세그먼트를 미세 조정된 LLM 모델에 입력합니다. 프롬프트에서 원하는 후보의 수를 지정하십시오. 모델은 채널에 적합한 언어, 지정된 톤 및 대상 시청자에 맞게 조정된 언어를 사용하여 요청된 수의 후보를 생성합니다.

 

훈련된 예측 변수 모형을 사용하여 최적의 후보 선택

이전에 훈련된 예측 변수 모델을 사용하여 LLM에서 생성된 후보 중에서 가장 최적의 제목을 선택할 수 있습니다. 각 후보에 대해 주요 특징을 추출하여 모델에 입력하여 예측을 생성합니다. 예측 점수가 가장 높은 제목을 최상의 옵션으로 선택하여 대상 시청자가 메시지를 클릭하고 열도록 유인할 확률이 가장 높습니다.

# Subject lines generated by the LLM
candidates = ["Holiday Sale!", "Black Friday Deals", "Cyber Monday Blowout"]

# Extract features from each candidate
features = []
for text in candidates:
  feats = get_features(text)
  features.append(feats)

# Make predictions on candidate features
predictions = model.predict(features)

# Pick subject line with best prediction
best_index = np.argmax(predictions)
best_subject = candidates[best_index]

 

 

제품화를 위한 단계

이 접근 방식을 제품으로 상용화하기 위해 진지하게 고려 중인 경우, 사용자 경험을 향상시키기 위해 몇 가지 영역을 검토해야 합니다.

마케팅 담당자가 위의 접근 방식으로 생성된 주제 라인과 제목을 편집/사용자 정의할 때 주제 라인과 알림 제목의 효과를 개선하거나 감소시킬 수 있는 것에 대한 자세한 통찰력을 제공하는 것이 특히 유용할 것입니다.

 

텍스트 길이: 각 대상자의 최적 길이를 초과하는 텍스트 단축에 대한 제안입니다.

키워드 영향: 참여율에 영향을 미치는 키워드를 강조하고 긍정적인 키워드의 추가를 장려하면서 부정적인 키워드의 제거를 제안합니다.

키워드 사용 및 빈도: 키워드를 올바른 빈도로 사용하여 청중의 피로를 피하는 방법에 대한 통찰력 제공.

역사적 성공 사례: 과거의 성공 사례를 바탕으로 과거에 많이 참여했던 유사한 텍스트를 제공합니다.

업계 벤치마크: 예상 이행률을 업계 벤치마크 및 성능 저하가 감지될 경우 제시된 수정 사항과 비교할 수 있습니다.

테스트: A/B는 상위 후보를 테스트하고 성과에 따라 반복합니다.

교육 루프: 예측을 개선하기 위해 새로운 데이터에 대한 모델을 지속적으로 재교육합니다.

개인 설정: 과거 메시지에 대한 참여를 기준으로 개별 구독자의 제목 줄을 개인화합니다.

 

 

휴먼 인 더 루프: 인공지능과 인간 개입의 균형

AI가 마케팅 전략에 통합됨에 따라 사람의 참여가 중요합니다. 마케팅 담당자는 배포 전에 모델이 작성한 제목이나 알림 제목을 검토하고 편집할 수 있어야 합니다. 이를 통해 커뮤니케이션의 품질과 적절성을 보장할 뿐만 아니라 모델이 하지 못했을 창의적인 입력을 통합할 수 있습니다.

또한 피드백 루프 메커니즘을 사용하면 지속적인 개선과 학습을 할 수 있습니다. 배포 후 수집된 참여 데이터는 귀중한 통찰력을 제공한 다음 추가 개선을 위해 모델에 피드백됩니다. 배포 후 데이터를 사용하기 전에 익명화하는 것은 데이터 개인 정보 보호법을 준수하는 데 중요합니다.

마지막 단계로 LLM 및 기타 모델의 출력 정확도를 향상시키기 위해 가드레일 및 접지 기술을 구축하면 마케팅 담당자가 법적, 윤리적, 브랜드 준수 상태를 유지할 수 있습니다. 이는 또한 AI에 의해 구동되는 경우에도 신뢰를 향상시키고 모든 커뮤니케이션의 중심에 개인적 연결을 유지합니다.

 

 

결론

생성 AI와 전통적인 머신 러닝 모델의 조합을 활용하여 설득력 있는 제목과 알림 제목을 만들 수 있습니다. 생성 AI는 톤과 청중을 기반으로 제목을 생성하도록 미세 조정될 수 있습니다. 랜덤 포레스트와 같은 예측 모델을 사용하여 가장 효과적인 제목과 제목을 선택하여 참여를 극대화할 수 있습니다.

반응형