Tag: 内存

Java默认堆栈大小

我明白每个线程都有自己的stack 。 原始types和引用保留在堆栈上,并且没有对象保留在堆栈上。 我的问题是: 多less钱可以增长? (就像参数Xms和Xmx ) 我们可以限制其增长吗? 堆栈是否有默认的最小值和最大值? 垃圾收集如何在堆栈上工作?

如何将文件内容读入istringstream?

为了提高从文件读取性能,我试图将一个大(几MB)文件的全部内容读入内存,然后使用istringstream来访问这些信息。 我的问题是,读取这些信息并将其“导入”stringstream的最佳方法是? 这种方法(见下文)的一个问题是,当创buildstringstream时,缓冲区被复制,内存使用量加倍。 #include <fstream> #include <sstream> using namespace std; int main() { ifstream is; is.open (sFilename.c_str(), ios::binary ); // get length of file: is.seekg (0, std::ios::end); long length = is.tellg(); is.seekg (0, std::ios::beg); // allocate memory: char *buffer = new char [length]; // read data as a block: is.read (buffer,length); // create string stream […]

在C中,大括号是作为一个堆栈框架吗?

如果我在一组新的花括号中创build一个variables,那么这个variables是从右花括号中的栈上popup的,还是挂起直到函数结束? 例如: void foo() { int c[100]; { int d[200]; } //code that takes a while return; } 在code that takes a while的code that takes a while会不会占用内存?

Android背景图像内存使用情况

我正在使用的项目使用了几个“高分辨率”的背景(注意引号)。 只是为了进入情况,其中之一是一个640×935 1.19M PNG文件。 据我所知,即使Android将图像解压缩到内存中作为原始数据,应该是: 640×935×4字节= 2.39M 我在我的项目上遇到了内存问题,我不能理解,我希望有人能够对此有所了解。 我将命名两个我正在开发的设备和一些结果。 为了确保这不是第二个问题,我创build了一个活动,在第一次创build时不会加载背景,然后当用户按下button时,所做的只是: findViewById(R.id.completed_block_background).setBackgroundResource(R.drawable.blockbackgroundbottom1); 然后,在进程上使用“更新堆”的DDMS(并首先强制GC,以确保这不会是一个问题),我得到以下内存结果: Nexus S:从18M到26M(8M的差距) Galaxy Nexus:从28M到39M(11M的差距) 所以,正如你所看到的,把理论上的2.39M未压缩的图像放到后台,实际上增加了8M和11M的内存使用量。 有人可以解释这是为什么,如果有任何解决scheme? 我能find的唯一解决scheme是使用位图来减半分辨率或降低通道格式(到目前为止,这是我所做的,将它们切换到565 RGB,但是这造成了一些我不能接受的分段问题)。 我也接受,如果没有什么可以做的,解释为什么会发生这种情况。 提前致谢。

Python是否有一个堆栈/堆,如何pipe理内存?

在Python中如何pipe理variables和内存? 它是否有堆栈和堆,以及使用什么algorithm来pipe理内存? 鉴于这些知识,有没有关于大量/数据处理的内存pipe理的build议?

如何设置Apache Spark Executor内存

我如何增加可用于Apache火花执行器节点的内存? 我有一个适合加载到Apache Spark的2 GB文件。 我在一台机器上运行apache spark,所以驱动程序和执行程序在同一台机器上。 机器有8 GB的内存。 当我设置要caching在内存中的文件后,尝试统计文件的行,我得到这些错误: 2014-10-25 22:25:12 WARN CacheManager:71 – Not enough space to cache partition rdd_1_1 in memory! Free memory is 278099801 bytes. 我查看了这里的文档,并在$SPARK_HOME/conf/spark-defaults.conf设置为4g UI显示这个variables是在Spark环境中设置的。 你可以在这里find截图 但是当我去执行选项卡时 ,我单个执行程序的内存限制仍设置为265.4 MB。 我也仍然得到相同的错误。 我尝试了这里提到的各种各样的东西,但是我仍然得到错误,并且没有清楚的想法,我应该改变设置。 我正在从spark-shell交互式地运行我的代码

如何找出哪些进程在Linux交换?

在Linux下,如何找出哪个进程使用交换空间更多?

更有效的方式来计算numpy的距离?

我有一个关于如何快速计算numpy距离的问题, def getR1(VVm,VVs,HHm,HHs): t0=time.time() R=VVs.flatten()[numpy.newaxis,:]-VVm.flatten()[:,numpy.newaxis] R*=R R1=HHs.flatten()[numpy.newaxis,:]-HHm.flatten()[:,numpy.newaxis] R1*=R1 R+=R1 del R1 print "R1\t",time.time()-t0, R.shape, #11.7576191425 (108225, 10500) print numpy.max(R) #4176.26290975 # uses 17.5Gb ram return R def getR2(VVm,VVs,HHm,HHs): t0=time.time() precomputed_flat = numpy.column_stack((VVs.flatten(), HHs.flatten())) measured_flat = numpy.column_stack((VVm.flatten(), HHm.flatten())) deltas = precomputed_flat[None,:,:] – measured_flat[:, None, :] #print time.time()-t0, deltas.shape # 5.861109972 (108225, 10500, 2) R = numpy.einsum('ijk,ijk->ij', […]

分配更多的内存比使用malloc存在

这个代码片段每次从stdin中读取字母“u”时将分配2Gb,并且在读取“a”时将初始化所有分配的字符。 #include <iostream> #include <stdlib.h> #include <stdio.h> #include <vector> #define bytes 2147483648 using namespace std; int main() { char input [1]; vector<char *> activate; while(input[0] != 'q') { gets (input); if(input[0] == 'u') { char *m = (char*)malloc(bytes); if(m == NULL) cout << "cant allocate mem" << endl; else cout << "ok" << endl; activate.push_back(m); […]

有没有办法获得参考地址?

在Java中,有没有办法获得引用地址,比如说 String s = "hello" 我可以得到s本身的地址,我也可以得到引用的对象的地址吗?