Matlab疑似因为数据过大而卡死了……求解决办法!

1:想用Matlab做基于神经网络的文本分类
2:训练数据特征向量1000维,一共7000多篇文章(有监督学习)
3:使用Matlab自带的神经网络模型,(使用newff建立的网络模型)

我对神经网络和Matlab都算是freshman,估计是内存不够,不知道有什么解决办法……
目的就是使用神经网络完成分类,神经网络模型我懂,只是不想自己写了,如果有其他的软件包也可以,不一定要用Matlab

还希望各位大神不吝赐教拉……

如果是溢出,matlab会报错说out of memory的。
如果你是采用double类型的话,每个点要8Bytes,
所以总共占用3.2*10^9 Bytes = 3.2G
如果是single类型好一些 占用 1.6G
所以要看你电脑的内存了。(可以尝试增加虚拟内存)

matlab本身要占用一部分内存的
可以不启动jvm以节省内存:

"...matlab.exe" -nojvm
温馨提示:答案为网友推荐,仅供参考
第1个回答  2013-03-25
如果是溢出,matlab会报错说out of memory的。追问

嗯,那就是溢出了,在我强行停止了那个网络模型Train界面以后显示就是out of memory……那应该怎么办呢,为什么网络上一些其他使用Matlab计算图片分类一类的算法都不会溢出,我的就会呢?

第2个回答  2013-03-28
多年的matlab和python优化经验,有时间可以把代码发给我看看:[email protected]
第3个回答  2013-03-25
你试过当你文章数量有20篇时能用行出结果吗?追问

没有……不过一开始学习那个模型的时候,使用了一些很小的数据(训练数据维度是2,也就7、8组),当时一瞬间就运行完了,所以我估计程序没问题。
昨天晚上,我又用python自己写了一个神经网络,因为是自己写的,可以随时监测运行过程,结果运行速度太慢了……输入层,隐藏层,输出层分别为1000,50,10的网络迷行迭代50次,我计算了一下都需要4个多小时!!
不知道学长有没有什么好办法……>_<

追答

可能真的是数据量太大的问题,优化一下代码吧。尽量减少循环。

相似回答