垃圾短信检测(端到端的项目)
我们都听说过一个流行词——“数据科学”。我们大多数人都对“它是什么?我可以成为数据分析师或数据科学家吗?我需要什么技能?并不是很了解。例如:我想开始一个数据科学项目,但我却不知道如何着手进行。
我们大多数人都是通过一些在线课程了解了这个领域。我们对课程中布置的作业和项目感到游刃有余。但是,当开始分析全新或未知的数据集时,我们会迷失方向。为了在分析我们遇到的任何数据集和问题时,我们需要通过不断的练习。我觉得最好的方式之一就是在项目中进行学习。所以每个人都需要开始自己的第一个项目。因此,我准备写一个专栏,带大家一起完成数据科学项目,感兴趣的朋友可以一起交流学习。本专栏是一个以实战为主的专栏。
0.引言
随着产品和服务在线消费的增加,消费者面临着收件箱中大量垃圾邮件的巨大问题,这些垃圾邮件要么是基于促销的,要么是欺诈性的。由于这个原因,一些非常重要的消息/电子邮件被当做垃圾短信处理了。在本文中,我们将创建一个 垃圾短信/邮件检测模型,该模型将使用朴素贝叶斯和自然语言处理(NLP) 来确定是否为垃圾短信/邮件。
在这里我使用的是colab内置环境,完整代码文末获取。
额外的所需包如下,大家自行安装
nltk
streamlit
pickle
1.数据收集和加载
我们将使用kaggle提供的数据集:数据集
该数据集 包含一组带有标记的短信文本,这些消息被归类为正常短信和垃圾短信。 每行包含一条消息。每行由两列组成:v1 带有标签,(spam 或 ham),v2 是文本内容。
df=pd.read_csv('/content/spam/spam.csv',encoding='latin-1')#这里encoding需要指定为latin-1
# 查看一下数据基本情况
df.head()
v1v2Unnamed: 2Unnamed: 3Unnamed: 40hamGo until jurong point, crazy.. Available only ...NaNNaNNaN1hamOk lar... Joking wif u oni...NaNNaNNaN2spamFree entry in 2 a wkly comp to win FA Cup fina...NaNNaNNaN3hamU dun say so early hor... U c already then say...NaNNaNNaN4hamNah I don't think he goes to usf, he lives aro...NaNNaNNaN
该数据包含一组带有标记的短信数据,其中:
- v1表示短信标签,ham表示正常信息,spam表示垃圾信息
- v2是短信的内容
#去除不需要的列
df=df.iloc[:,:2]
#重命名列
df=df.rename(columns={"v1":"label","v2":"message"})
df.head()
labelmessage0hamGo until jurong point, crazy.. Available only ...1hamOk lar... Joking wif u oni...2spamFree entry in 2 a wkly comp to win FA Cup fina...3hamU dun say so early hor... U c already then say...4hamNah I don't think he goes to usf, he lives aro...
# 将lable进行one-hot编码,其中0:ham,1:spamfrom sklearn.preprocessing import LabelEncoder
encoder = LabelEncoder()
df['label']=encoder.fit_transform(df['label'])
df['label'].value_counts()
0 4825
1 747
Name: label, dtype: int64
可以看出一共有747个垃圾短信
# 查看缺失值
df.isnull().sum()# 数据没有缺失值
label 0
message 0
dtype: int64
2.探索性数据分析(EDA)
通过可视化分析来更好的理解数据
import matplotlib.pyplot as plt
plt.style.use('ggplot')
plt.figure(figsize=(9,4))
plt.subplot(1,2,1)
plt.pie(df['label'].value_counts(),labels=['not spam','spam'],autopct="%0.2f")
plt.subplot(1,2,2)
sns.barplot(x=df['label'].value_counts().index,y=df['label'].value_counts(),data=df)
plt.show()
在特征工程部分,我简单创建了一些单独的特征来提取信息
- 字符数
- 单词数
- 句子数
#1.字符数
df['char']=df['message'].apply(len)
nltk.download('punkt')
[nltk_data] Downloading package punkt to /root/nltk_data...
[nltk_data] Unzipping tokenizers/punkt.zip.
True
#2.单词数,这里我们首先要对其进行分词处理,使用nltk#分词处理
df['words']=df['message'].apply(lambda x:len(nltk.word_tokenize(x)))
# 3.句子数
df['sen']=df['message'].apply(lambda x:len(nltk.sent_tokenize(x)))
df.head()
labelmessagecharwordssen00Go until jurong point, crazy.. Available only ...11124210Ok lar... Joking wif u oni...298221Free entry in 2 a wkly comp to win FA Cup fina...15537230U dun say so early hor... U c already then say...4913140Nah I don't think he goes to usf, he lives aro...61151
描述性统计
# 描述性统计
df.describe()
indexlabelcharwordssencount5572.05572.05572.05572.0mean0.1340631730078966480.1188083273510518.695620961952621.9707465900933239std0.3407507548977697459.690840776503313.7425868017449751.4177777134026657min0.02.01.01.025%0.036.09.01.050%0.061.015.01.075%0.0121.027.02.0max1.0910.0220.028.0
下面我们通过可视化比较一下不同短信在这些数字特征上的分布情况
# 字符数比较
plt.figure(figsize=(12,6))
sns.histplot(df[df['label']==0]['char'],color='red')#正常短信
sns.histplot(df[df['label']==1]['char'],color ='blue')#垃圾短信
<matplotlib.axes._subplots.AxesSubplot at 0x7fce63763dd0>
# 比较
plt.figure(figsize=(12,6))
sns.histplot(df[df['label']==0]['words'],color='red')#正常短信
sns.histplot(df[df['label']==1]['words'],color ='blue')#垃圾短信
<matplotlib.axes._subplots.AxesSubplot at 0x7fce63f4bed0>
sns.pairplot(df,hue='label')
#删除数据集中存在的一些异常值
i=df[df['char']>500].index
df.drop(i,axis=0,inplace=True)
df=df.reset_index()
df.drop("index",inplace=True,axis=1)
#相关系数矩阵
sns.heatmap(df.corr(),annot=True)
<matplotlib.axes._subplots.AxesSubplot at 0x7fce606d0250>
我们这里看到存在多重共线性,因此,我们不使用所有的列,在这里选择与label相关性最强的char
3.数据预处理
对于英文文本数据,我们常用的数据预处理方式如下
- 去除标点符号
- 去除停用词
- 去除专有名词
- 变换成小写
- 分词处理
- 词根、词缀处理
下面我们来看看如何实现这些步骤
nltk.download('stopwords')
[nltk_data] Downloading package stopwords to /root/nltk_data...
[nltk_data] Unzipping corpora/stopwords.zip.
True
# 首先导入需要使用到的包from nltk.corpus import stopwords
from nltk.stem import PorterStemmer
from wordcloud import WordCloud
import string,time
# 标点符号
string.punctuation
'!"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~'
# 停用词
stopwords.words('english')
3.1清洗文本数据
- 去除web链接
- 去除邮件
- 取掉数字
下面使用正则表达式来处理这些数据。
defremove_website_links(text):
no_website_links = text.replace(r"http\S+","")#去除网络连接return no_website_links
defremove_numbers(text):
removed_numbers = text.replace(r'\d+','')#去除数字return removed_numbers
defremove_emails(text):
no_emails = text.replace(r"\S*@\S*\s?",'')#去除邮件return no_emails
df['message']= df['message'].apply(remove_website_links)
df['message']= df['message'].apply(remove_numbers)
df['message']= df['message'].apply(remove_emails)
df.head()
labelmessagecharwordssen00Go until jurong point, crazy.. Available only ...11124210Ok lar... Joking wif u oni...298221Free entry in 2 a wkly comp to win FA Cup fina...15537230U dun say so early hor... U c already then say...4913140Nah I don't think he goes to usf, he lives aro...61151
3.2 文本特征转换
defmessage_transform(text):
text = text.lower()#转换为小写
text = nltk.word_tokenize(text)#分词处理# 去除停用词和标点
y =[]#创建一个空列表for word in text:
stopwords_punc = stopwords.words('english')+list(string.punctuation)#存放停用词和标点if word.isalnum()==Trueand word notin stopwords_punc:
y.append(word)# 词根变换
message=y[:]
y.clear()for i in message:
ps=PorterStemmer()
y.append(ps.stem(i))return" ".join(y)#返回字符串形式
df['message']= df['message'].apply(message_transform)
df['num_words_transform']=df['message'].apply(lambda x:len(str(x).split()))
df.head()
labelmessagecharwordssen00Go until jurong point, crazy.. Available only ...11124210Ok lar... Joking wif u oni...298221Free entry in 2 a wkly comp to win FA Cup fina...15537230U dun say so early hor... U c already then say...4913140Nah I don't think he goes to usf, he lives aro...61151
4.词频统计
4.1绘制词云
#绘制信息中出现最多的词的词云from wordcloud import WordCloud
#首先,创建一个object
wc=WordCloud(width=500,height=500,min_font_size=10,background_color='white')
# 垃圾信息的词云
spam_wc=wc.generate(df[df['label']==1]['message'].str.cat(sep=""))
plt.figure(figsize=(18,12))
plt.imshow(spam_wc)
<matplotlib.image.AxesImage at 0x7fce5d938710>
可以看出,这些垃圾邮件出现频次最多的单词是:free、call等这种具有诱导性的信息
# 正常信息的词云
ham_wc = wc.generate(df[df['label']==0]['message'].str.cat(sep=''))
plt.figure(figsize=(18,12))
plt.imshow(ham_wc)
<matplotlib.image.AxesImage at 0x7fce607af190>
可以看出正常信息出现频次较多的单词为u、go、got、want等一些传达信息的单词
为了简化词云图的信息,我们现在分别统计垃圾短信和正常短信频次top30的单词
4.2找出词数top30的单词
垃圾短信:
# 统计词频
spam_corpus=[]for i in df[df['label']==1]['message'].tolist():for word in i.split():
spam_corpus.append(word)
from collections import Counter
Counter(spam_corpus)#记数
Counter(spam_corpus).most_common(30)#取最多的30个单词
plt.figure(figsize=(10,7))
sns.barplot(y=pd.DataFrame(Counter(spam_corpus).most_common(30))[0],x=pd.DataFrame(Counter(spam_corpus).most_common(30))[1])
plt.xticks()
plt.xlabel("Frequnecy")
plt.ylabel("Spam Words")
plt.show()
正常短信
ham_corpus=[]for i in df[df['label']==0]['message'].tolist():for word in i.split():
ham_corpus.append(word)
from collections import Counter
plt.figure(figsize=(10,7))
sns.barplot(y=pd.DataFrame(Counter(ham_corpus).most_common(30))[0],x=pd.DataFrame(Counter(ham_corpus).most_common(30))[1])
plt.xticks()
plt.xlabel("Frequnecy")
plt.ylabel("Ham Words")
plt.show()
下面进一步分析垃圾短信和非垃圾短信的单词和字符数分布情况
# 字符数
fig,(ax1,ax2)=plt.subplots(1,2,figsize=(15,6))
text_len=df[df['label']==1]['text'].str.len()
ax1.hist(text_len,color='green')
ax1.set_title('Original text')
text_len=df[df['label']==0]['text'].str.len()
ax2.hist(text_len,color='red')
ax2.set_title('Fake text')
fig.suptitle('Characters in texts')
plt.show()
#单词数
fig,(ax1,ax2)=plt.subplots(1,2,figsize=(15,6))
text_len=df[df['label']==1]['num_words_transform']
ax1.hist(text_len,color='red')
ax1.set_title('Original text')
text_len=df[df['label']==0]['num_words_transform']
ax2.hist(text_len,color='green')
ax2.set_title('Fake text')
fig.suptitle('Words in texts')
plt.show()
总结
经过上面分析,我们可以得出结论,垃圾短信文本与非垃圾短信文本相比具有更多的单词和字符。
- 垃圾短信中包含的平均字符数约为 90 个字符
- 垃圾短信中包含的平均字数约为 15 个字
5.模型构建
根据历史经验,在文本数据上朴素贝叶斯算法效果很好,因此我们将使用它,但在此过程中还将它与不同的算法进行比较。
在统计学中,朴素贝叶斯分类器是一系列简单的“概率分类器”,它们基于应用贝叶斯定理和特征之间的(朴素)条件独立假设。它们是最简单的贝叶斯网络模型之一,但与核密度估计相结合,它们可以达到更高的准确度水平。
首先,我们这里的输入数据是文本数据,不能够直接建立模型。因此,我们必须将这些文本数据进行特征提取。比较常用的几种方法:
- 词袋模型(Bag of words) 存在稀疏性问题
- TF-IDF
- Word2vec
因为是实战训练,在这里不具体展开的几种方法的原理,在这里我选择TF-IDF。
我也试了一下Word embedding,结合一些深度学习的方法,精度能够有所提高,感兴趣的小伙伴可以自己尝试一下,基本步骤类似。下面我们首先建立贝叶斯模型。
5.1 构建贝叶斯模型
from sklearn.feature_extraction.text import TfidfVectorizer
tfidf = TfidfVectorizer(max_features=3000)
X = tfidf.fit_transform(df['message']).toarray()
y = df['label'].values
array([0, 0, 1, ..., 0, 0, 0])
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=2)#训练集测试集划分
from sklearn.naive_bayes import GaussianNB,MultinomialNB,BernoulliNB
from sklearn.metrics import accuracy_score,confusion_matrix,precision_score
这里我们比较三种不同的贝叶斯模型的各个评估指标结果
#GaussianNB
gnb = GaussianNB()
gnb.fit(X_train,y_train)
y_pred1 = gnb.predict(X_test)print("Accuracy Score -",accuracy_score(y_test,y_pred1))print("Precision Score -",precision_score(y_test,y_pred1))print(confusion_matrix(y_test,y_pred1))
Accuracy Score - 0.8456014362657092
Precision Score - 0.47038327526132406
[[807 152]
[ 20 135]]
#MultinomialNB
mnb = MultinomialNB()
mnb.fit(X_train,y_train)
y_pred2 = mnb.predict(X_test)print("Accuracy Score -",accuracy_score(y_test,y_pred2))print("Precision Score -",precision_score(y_test,y_pred2))print(confusion_matrix(y_test,y_pred2))
Accuracy Score - 0.9793536804308797
Precision Score - 0.9925373134328358
[[958 1]
[ 22 133]]
#Bernuli
bnb = BernoulliNB()
bnb.fit(X_train,y_train)
y_pred3 = bnb.predict(X_test)print("Accuracy Score -",accuracy_score(y_test,y_pred3))print("Precision Score -",precision_score(y_test,y_pred3))print(confusion_matrix(y_test,y_pred3))
Accuracy Score - 0.9829443447037702
Precision Score - 1.0
[[959 0]
[ 19 136]]
从上述结果来看,我选择了BNB来建模
5.2 模型比较
下面我们继续比较其他几种常见的分类模型的效果
#导入基本库from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.naive_bayes import MultinomialNB
from sklearn.tree import DecisionTreeClassifier
from sklearn.neighbors import KNeighborsClassifier
from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import AdaBoostClassifier
from sklearn.ensemble import BaggingClassifier
from sklearn.ensemble import ExtraTreesClassifier
from sklearn.ensemble import GradientBoostingClassifier
from xgboost import XGBClassifier
from sklearn.metrics import precision_score, recall_score, plot_confusion_matrix, classification_report, accuracy_score, f1_score
from sklearn.model_selection import cross_val_score
# 构建多个分类器
classifiers={"svc":SVC(kernel='sigmoid', gamma=1.0),"knc": KNeighborsClassifier(),"bnb": BernoulliNB(),"dtc": DecisionTreeClassifier(max_depth=5),"lr": LogisticRegression(solver='liblinear', penalty='l1'),"rfc": RandomForestClassifier(n_estimators=50, random_state=2),"adb": AdaBoostClassifier(n_estimators=50, random_state=2),"xgb": XGBClassifier(n_estimators=50,random_state=2),"gbc": GradientBoostingClassifier(n_estimators=50,random_state=2)}
# 训练分类器函数deftrain_classifier(clf,X_train,y_train,X_test,y_test):
clf.fit(X_train,y_train)
y_pred = clf.predict(X_test)
accuracy = accuracy_score(y_test,y_pred)
precision = precision_score(y_test,y_pred)
train_accuracy = clf.score(X_train,y_train)return accuracy,precision,train_accuracy
# 得到各个模型的评估结果
accuracy_scores =[]
precision_scores =[]
train_accuracy_score=[]for name,clf in classifiers.items():
current_accuracy,current_precision,current_train_score = train_classifier(clf, X_train,y_train,X_test,y_test)print("For ",name)print("Accuracy - ",current_accuracy)print("Precision - ",current_precision)
accuracy_scores.append(current_accuracy)
precision_scores.append(current_precision)
train_accuracy_score.append(current_train_score)print()
For svc
Accuracy - 0.9802513464991023
Precision - 0.9784172661870504
For knc
Accuracy - 0.9093357271095153
Precision - 1.0
For bnb
Accuracy - 0.9829443447037702
Precision - 1.0
For dtc
Accuracy - 0.9299820466786356
Precision - 0.8811881188118812
For lr
Accuracy - 0.9622980251346499
Precision - 0.959349593495935
For rfc
Accuracy - 0.9721723518850988
Precision - 0.9920634920634921
For adb
Accuracy - 0.966786355475763
Precision - 0.9338235294117647
For xgb
Accuracy - 0.9443447037701975
Precision - 0.9514563106796117
For gbc
Accuracy - 0.9542190305206463
Precision - 0.9642857142857143
为了方便对比,将上述结果存放到dataframe中
df1=pd.DataFrame({'Algorithm':classifiers.keys(),'Precision':precision_scores,'Test Accuracy':accuracy_scores}).round(3)
df2=df1.sort_values(['Precision','Test Accuracy'],ascending=False)#排序
df2
AlgorithmPrecisionTest Accuracy2bnb1.0000.9831knc1.0000.9095rfc0.9920.9720svc0.9780.9808gbc0.9640.9544lr0.9590.9627xgb0.9510.9446adb0.9340.9673dtc0.8810.930
通过对比,选择BNB模型,模型的precision为100%,accuracy为98.3%
6.模型部署
import pickle
pickle.dump(tfidf,open('vectorizer.pkl','wb'))
pickle.dump(mnb,open('model.pkl','wb'))
然后打开 IDE 并创建自己的虚拟环境。使用 pip 或 conda 安装所需的所有包。我们将使用 streamlit 构建我们的网站。
设置完成后,创建
app.py
文件
import streamlit as st
import pickle
import string
from nltk.corpus import stopwords
import nltk
from nltk.stem.porter import PorterStemmer
ps = PorterStemmer()deftransform_text(text):
text = text.lower()
text = nltk.word_tokenize(text)
y =[]for i in text:if i.isalnum():
y.append(i)
text = y[:]
y.clear()for i in text:if i notin stopwords.words('english')and i notin string.punctuation:
y.append(i)
text = y[:]
y.clear()for i in text:
y.append(ps.stem(i))return" ".join(y)
tfidf = pickle.load(open('vectorizer.pkl','rb'))
model = pickle.load(open('model.pkl','rb'))
st.title("垃圾短信/邮件分类器")
input_sms = st.text_area("输入你要检测的内容")if st.button('Predict'):# 1. preprocess
transformed_sms = transform_text(input_sms)# 2. vectorize
vector_input = tfidf.transform([transformed_sms])# 3. predict
result = model.predict(vector_input)[0]# 4. Displayif result ==1:
st.header("垃圾短信!")else:
st.header("正常短信~")
然后在本地运行
streamlit run app.py
然后就能到达下面这个界面了,将短信或者邮件输入点击预测就可以了
篇幅有限,完整代码可以在我的github上面查看,欢迎大家star,fork。
github地址:完整代码
如果访问不了github的可以私信我获取源码。
版权归原作者 JOJO数据科学 所有, 如有侵权,请联系我们删除。