PRELOADER

主页

5/10/2019 —— 

《机器学习实战》学习笔记决策树基础篇之决策树构造决策树决策树是什么?决策树(decision tree)是一种基本的分类与回归方法。举个通俗易懂的例子,如下图所示的流程图就是一个决策树,长方形 代表判断模块(decision block),椭圆形成代表终止模块(terminating block),表示已经得出结论,可以终止运行。从判断模块引出的左右 箭头称作为分支(branch),它可以达到另一

展开全文

《机器学习实战》学习笔记(一)决策树之隐形眼镜漫谈一、决策树构建本篇文章只使用ID3算法构建决策树 1、ID3算法ID3算法的核心是在决策树各个结点上对应信息增益准则选择特征,递归地构建决策树。具体方法是:从根结点(root node)开始, 对结点计算所有可能的特征的信息增益,选择信息增益最大的特征作为结点的特征,由该特征的不同取值建立子节点;再对子结点递归地调用以 上方法,构建决策树;直到所有

展开全文

《机器学习实战》学习笔记(一) k-近邻算法(约会实战)一、k-近邻法简介k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合, 也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后, 将新的数据的每个特征与样本

展开全文

对WOT服务中逻辑缺陷漏洞的分析原文链接:https://edoverflow.com/2018/logic-flaws-in-wot-services/ 摘要网络信任服务(WOT)如Keybase,Onename和Blockstack承诺验证个人在网络上的身份。由于Web上的许多应用程序不一致, 因此通常会导致意外行为,从而导致网络信任服务中的安全漏洞。这篇文章分析了我在研究WOT服务安全性时偶

展开全文

机器学习实战——学习笔记(一) k-近邻算法(手写识别系统实战)一、k-近邻法简介k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合, 也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后, 将新的数据的每个特

展开全文

朴素贝叶斯之新浪新闻分类(Sklearn)1 中文语句切分考虑一个问题,英文的语句可以通过非字母和非数字进行切分,但是汉语句子呢?就比如我打的这一堆字,该如何进行切分呢?我们自己写个规则? 幸运地是,这部分的工作不需要我们自己做了,可以直接使用第三方分词组件,即jieba,没错就是”结巴”。 jieba已经兼容Python2和Python3,使用如下指令直接安装即可: pip3 install j

展开全文

持续集成服务(CI)漏洞挖掘原文链接:https://edoverflow.com/2019/ci-knew-there-would-be-bugs-here/ 在挖漏洞的时候,熟悉供应商和公司所依赖的技术至关重要。引起我们注意的一个特别有趣的环境是各种开源项目使用的流行集成, 主要是作为其开发生命周期的一部分。包括Travis CI,Circle CI和GitLab CI在内的持续集成服务(“

展开全文

URL 跳转漏洞的利用技巧URL跳转漏洞仅是重定向到另一个网址,如: https://www.example.com/?go=https://www.google.com/,当我们访问这个url时, 将从example.com跳转到google.com。通常来说,它们被归类到低影响的一类中,甚至,有些程序将它们列入超范围的名单中, 且不允许用户访问。那我们能对它们做些什么呢?一年多以前,我发布了这

展开全文

梯度下降求解逻辑回归2(代码编写以及三种梯度下降对比)上一篇是理论知识、背景介绍以及大体的实现方向,这一篇是具体代码实现 功能模块准备 写出sigmoid函数,返回被录取的概率,即映射到概率 写出model函数,返回预测结果值,即X(样本值)与theta的矩阵相乘结果 def sigmoid(z): return 1 / (1 + np.exp(-z)) nums = np.arange

展开全文