• web安全之机器学习入门——2.机器学习概述


    目录

    0 前置知识

    什么是机器学习

    机器学习的算法

    机器学习首先要解决的两个问题

    一些基本概念

    数据集介绍

    1 正文

    数据提取

      数字型

      文本型

    数据读取


    0 前置知识

    什么是机器学习

    通过简单示例来理解什么是机器学习

    机器学习的算法

    属于监督式学习的算法有:回归模型,决策树,随机森林,K近邻算法,逻辑回归等算法

    属于无监督式学习的算法有:关联规则,K-means聚类算法等

    属于强化学习的算法有:马尔可夫决策过程

    机器学习的算法——用最通俗的例子去理解

    通俗易懂机器学习

    图解十大经典机器学习算法入门

    10种机器学习算法(附Python代码)

    通俗易懂介绍机器学习与深度学习的差别

    机器学习首先要解决的两个问题

    找到合适的训练数据和测试数据,即数据集的提取

    如何把身边各种形态的实物最终转换成机器可以理解的数学特征,即特征提取

    一些基本概念

    有监督学习:对具有概念标记分类的训练样本进行学习,以便尽可能对训练样本集外的数据进行标记分类预测。这里,所有的标记分类是已知的。因此,训练样本的歧义性低。

    无监督学习:对具有概念标记分类的训练样本进行学习,以便发现训练集中的结构性知识。这里,所有的标记分类是未知的。因此,训练样本的歧义性高。聚类就是典型的无监督学习。

    准确率和召回率:对一个二分问题,会出现四种情况。实例为真,预测为真,真正类(TP);实例为假,预测为真,假正类(FP);实例为假,预测为假,真负类(TN);实例为真,预测为假,假负类(FN)。

    召回率=TP/(TP+FN);

    准确率=TP/(TP+FP). 

    数据集介绍[by the way]

    数据集和算法缺一不可,很多时候数据集比算法更重要。

    1. KDD 99数据

    一个网络连接的定义:在某个时间内从开始到结束的TCP数据包序列,并且在这段时间内,数据在预定义的协议下从源ip到目的ip地址的传递。

    4大类共39种攻击类型

             

    每个连接用41个特征来描述 

       

    TCP连接的基本特征

    TCP连接的内容特征

    基于时间的网络流量统计特征

    基于主机的网络流量统计特征

    2. HTTP DATASET CSIC 2010

    包含大量标注过的针对web服务的36000个正常请求和25000个攻击请求。攻击类型包括sqli,xss,文件包含,缓冲区溢出,信息泄露等。

    3. SEA数据集

    涵盖70多个UNIX系统用户的行为日志,这些数据来自于UNIX系统acct机制记录的用户使用的命令。

    用户日志类似于下面的命令序列

    schonlau在他的个人网站上公开了数据集

    4. ADFA-LD数据集

    一套主机级入侵检测系统的数据集合,包括windows和linux,记录了系统调用数据。项目主页

     数据集将各类系统调用完成了特征化,并针对攻击类型进行了标注。

    各种攻击类型列表

    5. Alexa域名数据

    提供了全球排名TOP100w的网站域名下载,文件格式是CSV。

    6. Scikit-learn数据集

    最常见的是iris数据集。2个属性,iris.data(4×150矩阵),iris.target(长度150的数组,值同数据类型)

     7. MNIST数据集

    入门级的计算机视觉数据集,包含了各种手写数字图片。包含了60000个训练数据和10000个测试数据。

    网址

     也可以使用离线版的mnist文件

    下载链接

    8. Movie Review Data

    包含了1000条正面评论和1000条负面评论,被广泛用于文本分类,尤其是恶意评论识别方面。后续使用版本polarity dataset v2.0。地址

    9. SpamBase数据集

    入门级的垃圾邮件分类训练集。一共58个特征,最后一个是垃圾邮件的标记位。地址

    10. Enron数据集

    使用不同文件夹区分正常邮件和垃圾邮件。地址

    1 正文

    特征提取

    体力活,工程量大。数字型和文本型特征提取最为常见。

    数字型

    数字型特征可以直接作为特征,但对于一个多维的特征,某一特征值取值范围特别大的时候,很可能导致其他特征对结果的影响被忽略,这时候就需要对特征做预处理。常见的预处理方式有:

    标准化

    from sklearn import preprocessing
    import numpy as np
    x = np.array([[1.,-1.,2.],[2.,0.,0.],[0.,1.,-1.]])
    print(preprocessing.scale(x))
    [[ 0.         -1.22474487  1.33630621]
     [ 1.22474487  0.         -0.26726124]
     [-1.22474487  1.22474487 -1.06904497]]

    正则化

    from sklearn import preprocessing
    import numpy as np
    x = np.array([[1.,-1.,2.],[2.,0.,0.],[0.,1.,-1.]])
    print(preprocessing.normalize(x,norm='l2'))
    [[ 0.40824829 -0.40824829  0.81649658]
     [ 1.          0.          0.        ]
     [ 0.          0.70710678 -0.70710678]]

    归一化

    from sklearn import preprocessing
    import numpy as np
    x = np.array([[1.,-1.,2.],[2.,0.,0.],[0.,1.,-1.]])
    print(preprocessing.MinMaxScaler().fit_transform(x))
    [[ 0.5         0.          1.        ]
     [ 1.          0.5         0.33333333]
     [ 0.          1.          0.        ]]

    文本型

    较数字型复杂很多,本质上是做单词划分,不同的单词当作一个新的特征。

    如:

    {'city':'zunyi','temperature':23},{'city':'guiyang','temperature':21},{'city':'hangzhou','temperature':18}

    键值city具有多个取值,把每个取值当作特征;temperature是数字型,作为一个特征。

    from sklearn.feature_extraction import DictVectorizer
    import numpy as np
    measurements = [{'city':'zunyi','temperature':23},{'city':'guiyang','temperature':21},{'city':'hangzhou','temperature':18}]
    x = DictVectorizer()
    print(x.fit_transform(measurements).toarray())#词袋数据
    print(x.get_feature_names())#特征名称
    [[  0.   0.   1.  23.]
     [  1.   0.   0.  21.]
     [  0.   1.   0.  18.]]
    ['city=guiyang', 'city=hangzhou', 'city=zunyi', 'temperature']

    文本特征有两个很重要的模型。

    词集模型:集合中的单词不会重复出现。

    词袋模型:集合中的单词不会重复出现,还会记录每个单词出现的次数。

    """和上例相似"""
    #导入相关函数库
    from sklearn.feature_extraction.text import CountVectorizer #实例化分词对象 vectorizer = CountVectorizer(min_df=1) #将文本进行词袋处理 corpus = ['This is the first document.','This is the second document.','And the third one.',] x = vectorizer.fit_transform(corpus) #获取对应特征名称 print(vectorizer.get_feature_names()) #获取词袋数据 print(x.toarray())
    ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']
    [[0 1 1 1 0 0 1 0 1]
     [0 1 0 1 0 1 1 0 1]
     [1 0 0 0 1 0 1 1 0]]

    我们定义的词袋的特征空间叫做词汇表vocabulary(输入空间、输出空间、特征空间与假设空间

    vocabulary = vectorizer.vocabulary_

    对于其他文本,使用现有的词袋的特征进行向量化。

    new_vectorizer = CountVectorizer(min_df=1,vocabulary=vocabulary)

    TensorFlow有类似实现

    ...

    数据读取

     CSV是最常见的格式,文件每行记录一个向量,最后一行为标记。

    TensorFlow从CSV文件中读取数据

    #导入相关函数库
    import tensorflow,numpy as tf,np
    #读取数据
    training_set = tf.contrib.learn.datasets.base.load_csv_with_header(
            filename = "iris_training.csv",#文件名
            target_dtype=np.int,#标记数据的类型
            features_dtype=np.float32)#特征数据的类型
    feature_columns = [tf.contrib.layers.real_valued_column("",dimension=4)]  #???
    #访问数据集合的特征以及标记的方式
    x = training_set.data
    print(x)
    y = training_set.target
    print(y)

     ...

  • 相关阅读:
    spring 循环依赖问题
    spring data jpa 关键字 命名
    mongodb 添加字段并设置默认值
    java mongoTemplate的group统计
    java8 从对象集合中取出某个字段的集合
    springboot12-zuul
    springboot11-01-security入门
    springboot项目怎么部署到外部tomcat
    springboot10-springcloud-eureka 服务注册与发现,负载均衡客户端(ribbon,feign)调用
    UML
  • 原文地址:https://www.cnblogs.com/p0pl4r/p/10653076.html
Copyright © 2020-2023  润新知