快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

词向量代码Java 词向量字典

100分求高手帮我将xml文件转为java类

奋斗了20个小时,终于完成了,本类无需导入任何额外的包,底层细节全部在本类中完成!

临夏网站制作公司哪家好,找创新互联!从网页设计、网站建设、微信开发、APP开发、自适应网站建设等网站项目制作,到程序开发,运营维护。创新互联从2013年成立到现在10年的时间,我们拥有了丰富的建站经验和运维经验,来保证我们的工作的顺利进行。专注于网站建设就选创新互联。

说明,本类通过读入xml文件,并把信息正确分成存入到Guird列表中。通过调用getGuirdList()将返回结果集。要使用其中的某一项,只接到对象中用方法获取即可,希望能够满足楼主的需求!!

TransXml.java

import java.io.*;

import java.util.Vector;

import java.util.Scanner;

import java.io.InputStreamReader;

import java.util.LinkedList;

public class TransXml{

private String xmlAddress;

private VectorGuird guir;//表示一级子目录下的Guird向量

private FileInputStream inStr;

private InputStreamReader inRea;

private int whLayer=0;//标志表的层次,为0表示根表,为1表示第一层子表

private int whiLab=0;//表示当前标签是第几层

boolean isend=false;

boolean isguirs=false;

boolean isguir=false;

StringBuffer str=new StringBuffer();//表示中的词

String strVul;

StringBuffer value=new StringBuffer();//表示具体类容

boolean isWorld=false;

boolean isValue=false;

boolean isSubgu=false;

boolean notEnd=true;

LinkedListGuird linList;

public TransXml(){

}

public TransXml(String xmlAdd){

guir=new VectorGuird();

linList=new LinkedListGuird();

this.xmlAddress=xmlAdd;

System.out.println("开始读取xml文件");

try{

inStr=new FileInputStream(xmlAddress);

inRea=new InputStreamReader(inStr);

}catch(IOException e){

System.out.println("Xml文件地址无效");

}

System.out.println("开始读取xml文件完成!");

Translate();

}

public void Translate(){

Guird theGu=new Guird();

while(notEnd)

{

int tt=-1;

try{

tt=inRea.read();

}catch(IOException e){

System.out.println("字符读取失败!");

}

if(tt==-1){//文件已经读完了

notEnd=false;

break;

}

char ch=(char)tt;

if(ch==''){

//说明,前面如果有类容的话,内容完结

isValue=false;//说明内容已经完了

isWorld=true;//表示下面是里德内容

}

if(ch==''){

isWorld=false;//表示括号内的字符串结束了

strVul=str.toString();//表示当前的目录层次

if(strVul.equalsIgnoreCase("guirds")){//这是配置文件正式开始的标志

isguirs=true;

}else if(strVul.equalsIgnoreCase("guird")){//说明已经进入guird类

isguir=true;

}else if(strVul.equalsIgnoreCase("id")){//进入id属性

isValue=true;

}else if(strVul.equalsIgnoreCase("name")){//进入name属性

isValue=true;

}else if(strVul.equalsIgnoreCase("ename")){//进入ename属性

isValue=true;

}else if(strVul.equalsIgnoreCase("parentid")){//进入parentid属性

isValue=true;

}else if(strVul.equalsIgnoreCase("subguirds")){//进入subguirds属性,说明它还有一个字表

isSubgu=true;

linList.addLast(theGu);//做入栈操作,添加到结尾

whLayer++;//原始的值为0,它表示当前操作guird的级数

//那么下面的读取将是新的Guird类,所以要把现在的theGu保存后重新初始化

theGu=new Guird();//初始化,后面接着用

}else if(strVul.equalsIgnoreCase("/guirds")){//这是配置文件结束的标志

isguirs=false;//程序已经阅读完毕XML文件

notEnd=false;

}else if(strVul.equalsIgnoreCase("/guird")){//说明已经结束guird类

isguir=false;//说明一条记录已经完成,所以要对其存储

//theGu的属性是在/标签前就写入完毕了,那么应该写入上级目录中,

//如果是定定及目录,则直接写入给定的Vector

if(whLayer0){//说明还不是根目录

Guird tempguir=linList.getLast();

VectorGuird tempqq=(Vector)tempguir.getSubGuird();

if(tempqq==null){//说明前面的集合为空

tempqq=new Vector();

}

tempqq.add(theGu);//集合中增加这一项

tempguir.setSubGuird(tempqq);

linList.removeLast();//移动原来的换新的内容

linList.add(tempguir);

theGu=new Guird();//重新初始化供后面使用,并不要去改变whLayer值

}else if(whLayer==0){//这说明当前的theGu是指1级子目录,

guir.add(theGu);//添加一条记录到Vector

theGu=new Guird();// 重新初始化以便下次正确用到

}else{

System.out.println("xml文件标签错误!");

notEnd=false;

}

}else if(strVul.equalsIgnoreCase("/id")){//结束id属性

isValue=false;

theGu.setId(new Integer(value.toString()));

value=new StringBuffer();

}else if(strVul.equalsIgnoreCase("/name")){//结束name属性

isValue=false;

theGu.setName(value.toString());

// System.out.println("这里写入的名字是:"+theGu.getName());

value=new StringBuffer();

}else if(strVul.equalsIgnoreCase("/ename")){//结束ename属性

isValue=false;

theGu.setEname(value.toString());

value=new StringBuffer();

}else if(strVul.equalsIgnoreCase("/parentid")){//结束parentid属性

isValue=false;

theGu.setParentId(new Integer(value.toString()));

value=new StringBuffer();

}else if(strVul.equalsIgnoreCase("/subguirds")){//结束subguirds属性,字表完成

isSubgu=false;

//刚刚结束的这个Guird就是whLayer级子目录

//要判断是根类还是那一级子目录

whLayer--;//表示上一级目录

if(whLayer0){

theGu=linList.getLast();//成为当前节点

//所以当前操作对象又将是刚从LinkedListed中取出的那个

linList.removeLast();//已经用过了,最后一个移除,相当于退栈

}

else if(whLayer==0){//根节点下

theGu=linList.getLast();

linList.removeLast();

}else{

notEnd=false;//因为whLayer不可能小于0

System.out.println(xmlAddress+"标签不完整!请检查!");

break;

}

}

strVul="";

str=new StringBuffer();//重新初始化,准备后面使用

}

if(isWorld==true){

if((char)tt!=''(char)tt!='')//因为具有延时性所以要增加这个条件

if(tt!=32tt!=9)//它不为空格和Tab,即在xml中标签内的内容将忽略Tab和空格

str.append((char)tt);

}

if(isValue==true){//当前是类容属性值

if((char)tt!=''(char)tt!=''){

if(tt!=32tt!=9)//它不为空格和Tab

value.append((char)tt);

}

}

/**

* 为什么这里注释掉了,因为前面以当发现value值取到最后一位后就设置isValue为false

* 但是要当下一个/结尾标签完才会调用value值并进行操作,所以,value不能立刻变为空内容

* 那么当它被使用后,采设置新的对象是可取的

* else{

* value=new StringBuffer();//避免干扰下次

* }

*/

}

try{

inRea.close();

inStr.close();

}catch(IOException e){

System.out.println("流关闭失败!");

}

}

public Vector getGuirdList(){

return this.guir;//获得最终的子目录列表

}

/**

* 原来写的main方法进行测试,在这里就省略了

*/

}

Xml文件中guirds标签中,有几对guird标签就会返回几条结果,当然guird是指在guirds目录下的第一层标签,而其他的二级guird标签中的内容则存在相应的ListGuird subGuird中。

That's all !

利用word2vec进行词向量训练内存溢出问题

机器内存不够。这个程序很吃内存。我也是这样。增加了个内存条。

python一问一答代码怎么写

python一问一答代码步骤:

1、对问答库进行拆分,将文本分别拆分为问题库和答案库。

2、将问题进行文本处理:循环遍历问题库里每一个问题。对每一个问题进行文本处理:首先加载停用词库,对问题用nltk分词进行小写化、去停用词、数值归一后重新加入到一个问题库,对这个已经处理完的问题库用zipf定律进行词频过滤。对输入的问题进行文本处理。将处理好的问题库词向量化(用qlove或word2vec,包子词向量化是将词向量相加取平均)后计算问题库向量L2范数。将处理好的输入问题词向量化并计算问题向量L2范数。

3、建立一个简单的倒排表。

4、利用倒排表计算问题库词向量和输入问题词向量的余弦相似度。

5、建立优先队列,采用(优先级(余弦相似度),与相似度对应的问题答案下标)(值越小,优先级越大)找出ToD所对应的答案下标。

6、根据找出的答案下标到答案库里遍历打印即可。

pattern recognition and machine learning这本书怎么看

作者:Richardmore

这本书可以说是机器学习的经典学习之作。以前在上机器学习这么课的时候,很多细节还没联系到,结果在读论文中就显得捉襟见肘。本文打算理清楚这本书的脉络,也顺便为学习机器学习的人打下一个学习路线图。

1. 排除两块内容

现排除第五章的内容神经网络,之所以把神经网络先单列出来,原因一是一个比较独立的研究脉络,二是因为这部分因为深度学习的原因太热了,所以我认为在学习机器学习中把神经网络单列出来学习,在交大的研究生课程安排中,神经网络是机器学习的后续课程。

对于第6,7章,也不在下面的学习路线中,因为这部分是关于核技巧方面的,主要是就是高斯过程回归,高斯过程分类以及SVM等内容。

2. 一个概率图框架为中心视角

排除了上面几章的内容,PRML书中可以用下面的学习路线图覆盖,通过这个图可以理清楚了各个内容的不同角色。

img src="" data-rawwidth="1888" data-rawheight="412" class="origin_image zh-lightbox-thumb" width="1888" data-original=""

说明:

(1)一般模型中都会有隐变量因此,,因此对于P(X)的采用MLE学习的另一个技巧,便是第九章 EM算法。条件是在M步时,Q要可以被analytically computed。

(2)至于为什么近似,Exact Inference is hard we resort to approximation

3. 隐变量技巧

下面我们看看另外一个视角:隐变量技巧。隐变量不仅可以使得模型的表达能力丰富起来,而且通常对于隐变量往往富有一定的实际意义。

img src="" data-rawwidth="1764" data-rawheight="422" class="origin_image zh-lightbox-thumb" width="1764" data-original=""

说明:

(1)这里所谓的结合模型中,在PRML中最后一章仅仅提到了以加法的方式进行模型集合,也就是mixture of experts,在论文Hinton G E. Training products of experts by minimizing contrastive divergence[J]. Neural computation, 2002, 14(8): 1771-1800. 提出了product of experts 模型,也就是以乘法的方式进行结合,RBM就是一种特殊的product of experts 模型,而高斯混合模型便是加法模型的代表。

(2)隐变量的技巧是机器学习中一种重要的技巧,隐变量的加入不仅仅增加了模型的表达能力,而且,隐变量还可以被赋予某种特殊的意义,比如RBM模型中隐变量h被当成显变量v的特征抽象。这当然归根结底是因为隐变量模型确实是现实世界真实存在的情况,unobserved but important variables do exist! 当然隐变量的引入也为模型的推断带来了新的挑战,有很多比较好的隐变量模型往往找不到很高效的方法,而被限制着。

4. 例子说明

下面分别从上面两个视角来分析RBM模型,贝叶斯线性回归和序列模型。

4.1 RBM模型

RBM模型是一个无向2层对称的图模型,从隐变量的视角来看,它是一个以乘法方式结合的distributed models。当然隐变量的引入增加了模型的复杂性和表达能力,但是也为学习,推断带来了问题。对于RBM的参数学习,因为是无向图,所以采用MLE最大化P(X),但是由于此时P(X,Z)难以评估,所以

img src="" data-rawwidth="834" data-rawheight="94" class="origin_image zh-lightbox-thumb" width="834" data-original=""

很难计算,没有在RBM的学习中不能像高斯混合模型那样可以采取EM算法。因此只能采取最为标准的做法,求取P(X)的梯度,结果梯度公式如下:

img src="" data-rawwidth="800" data-rawheight="90" class="origin_image zh-lightbox-thumb" width="800" data-original=""

然而对于计算后面的model部分的积分需要知道模型的概率分布,评估模型的概率分布需要计算一个标准化的分母,难以计算。因此就需要依赖近似,由于p(v|h),p(h|v)都是可以分析公式表达,因此采用Gibbs sampler来数值逼近积分。当然后来Hinton G E. Training products of experts by minimizing contrastive divergence[J].发现对于这一部分,Gibbs sampler 不需要多部的迭代,一次迭代就可以了,从而使的训练RBM的时间代价大大降低了,后来(A fast learning algorithm for deep belief nets,2006)提出了贪婪式的训练多层DBN(stacked RBM),每层都是训练RBM,从而使的深度学习焕发新的活力(Reducing the dimensionality of data with neural networks,2006)。

4.2 贝叶斯线性回归Bayesian Linear Regression BLR

这个模型是最为基础的,这个模型在PRML中,利用直接推断,变分法推断,MCMC采样都是可以做的;因此便于比较不同算法得到的结果。之前,本来打算在这里以LDA主题模型来举例,虽然LDA的EM算法, 变分法,以及Gibbs sampling 都是可以做的,但是模型太复杂,所以果断放弃了,以BLR模型作为例子说明。

BLR是一个有向图模型,是一个典型的贝叶斯网络(虽然简单一点)。如果以一个贝叶斯的视角来看,其中的隐变量便是线性参数w,以及各种超参数α,β.....,在贝叶斯的处理视角之下,这些都会赋予一个先验分布。当然,有些模型书中也提到,有不同层次上的贝叶斯网络。有的是仅仅对参数w赋予一个先验分布,而对于其他的参数(hyperparameter)仅仅是作为模型参数,就是假设是一个渡固定的数值,然后再通过learn evidence function,其实说白了就是MLE,来寻找最佳的超参数α,β....。相比于把线性参数w,以及各种超参数α,β.....全部作为放入到贝叶斯网络中,这样的做法显然简化了模型,降低了贝叶斯网络的复杂性。这个技巧也在多处的论文中出现。

从隐变量的角度来看,由于BLR模型相对简单,其中并没有随机隐变量,仅仅是一些参数w,以及各种超参数α,β..的环境隐变量。

4.3 序列模型:隐马尔可夫链HMM与条件随机CRF

隐马尔可夫链HMM这个模型是一个有向图模型,典型的贝叶斯网络,只不过这个网络是一个线性链(linear chains),因此可以进行分析上推断,要知道对于一般网络,并不存在通用的实用的inference算法。因为HMM是一个有向图模型。但是(1)在PRML书中,以及李航《统计学习》中并没有把其当作一个贝叶斯网络来进行处理,对所有的参数比如发射概率,转移矩阵概率都是模型的参数,而不是通过赋予一个先验分布,从而纳入到贝叶斯网络框架之中。因此对于模型而言,关键的便是通过MLE最大化P(X)来学习模型的参数,因为这里的有隐变量,因此在PRML,以及《统计学习》中都是通过EM算法做的。(2)其实,HMM是一个典型的线性链式的贝叶斯网络,因此对于通过对其参数赋予先验分布,进而从贝叶斯的角度,来对模型进行推断是一个非常自然的想法。我在论文Sharon Goldwater, Thomas L Griffiths 论文 A Fully Bayesian Approach to Unsupervised Part-of-Speech Tagging,中作者采用了Bayesian HMM 重新做了POS任务。作者在文中还详细罗列了Bayesian HMM 相比普通的HMM的优点:(a)可以使用先验知识,例如在POS中语言的认知可以加入到先验分布之中,而且(b)贝叶斯的推断,是通过一个后验分布推断参数,相比MLE点估计,会更加准确。对于贝叶斯的推断,作者在文中使用了Gibbs sample抽样实现了数值采样推断模型。最后作者比较了Gibbs sample+Bayesian HMM和普通的HMM +EM,在POS任务效果更加好。另外,对于本论文的作者Thomas L Griffiths,第一次接触这个学者,是在读Gibbs sample in LDA这篇文章,作者推导了LDA的各种的条件分布,然后基于Gibbs sample 进行采样,记得Github上有Java版的实现代码,其推导十分严谨,并且有代码辅助,是学习LDA的一个捷径。在近似推断方面可以看出Thomas L Griffiths是一个坚定的数值采样学派,而LDA的开山之作《Latent Dirichlet Allocation 》的作者David M. Blei,看了作者部分文章以后,发现这个人是在近似推断方面是一个变分法的坚定学派,在《Latent Dirichlet Allocation 》之中,便是通过变分法进行推断了,David M. Blei还写了一个关于变分法的入门讲义pdf,网上可以搜到。所以回看我们概率图视角,做机器学习推断是不可避免的,有的是变分法近似,有的是数值采样近似,也有的是EM算法试一试。至于选择哪一种,就看你的问题哪一个比较简单了。但是好像有的人对这些方面各有偏爱。

再说一下条件随机场CRF,相比与HMM,这也是一个序列模型,在很多的NLP任务中,CRF都是state of art 的算法,毕竟人家可以方便的特征工程嘛。但是这种日子被深度学习取代了,在NLP方面,RNN(递归神经网络)要比CRF表现更好,见我之前博文基于RNN做语义理解和词向量。先不说这么远,CRF的模型架构上是一个典型的无向的链式概率图模型,因此,(回看我们概率图的视角),CRF的关键问题便是如何进行学习了P(X),好在求其该模型直接求其梯度并没有太大的困难,具体可以参见李航的《统计学习》。

5 结束语

这篇文章,从概率图,隐变量两个视角对PRML中各个章节进行了串联,并以RBM,BLR,序列模型(HMMCRF)具体说明这种串联。


分享文章:词向量代码Java 词向量字典
文章分享:http://6mz.cn/article/ddgchhi.html

其他资讯