Tag: ipad

恼人的“”警报

在testing我们的iOS应用程序的testing版本时,我们最近看到只有以下文字的警报“[Environment:Sandbox]” 我的猜测是,这是应用程序商店过程中的错误,但我不知道。 有没有人遇到过这个问题? 你知道为什么吗?

如何提高自定义OpenGL ES 2.0深度纹理生成的性能?

我有一个开源的iOS应用程序,它使用自定义的OpenGL ES 2.0着色器来显示分子结构的三维表示。 它通过使用在矩形上绘制的程序生成的球体和圆柱体冒名顶替,而不是使用大量顶点构build的这些相同的形状。 这种方法的缺点是这些冒充者对象的每个片段的深度值需要在片段着色器中计算,以便在对象重叠时使用。 不幸的是,OpenGL ES 2.0 不会让你写入gl_FragDepth ,所以我需要输出这些值到一个自定义的深度纹理。 我使用framebuffer对象(FBO)对场景进行遍历,只渲染与深度值对应的颜色,并将结果存储到纹理中。 然后这个纹理加载到我的渲染过程的后半部分,在那里生成实际的屏幕图像。 如果该阶段的某个片段处于屏幕上该点的深度纹理中存储的深度级别,则会显示该片段。 如果不是,就扔掉。 有关过程的更多信息,包括图表,可以在我的文章中find 。 这种深度纹理的产生是我渲染过程中的一个瓶颈,我正在寻找一种使其更快的方法。 它似乎比应该慢,但我不明白为什么。 为了实现这种深度纹理的正确生成,禁用GL_DEPTH_TEST ,使用glBlendFunc(GL_ONE, GL_ONE)启用glBlendEquation() ,并将glBlendEquation()设置为GL_MIN_EXT 。 我知道以这种方式输出的场景并不是像iOS设备中的PowerVR系列那样基于瓦片的延迟渲染器上最快的,但我想不出一个更好的方法来做到这一点。 我的深度片段着色器(最常见的显示元素)看起来是这个瓶颈的核心(仪器中的渲染器利用率固定在99%,表明我受限于片段处理)。 目前看起来如下所示: precision mediump float; varying mediump vec2 impostorSpaceCoordinate; varying mediump float normalizedDepth; varying mediump float adjustedSphereRadius; const vec3 stepValues = vec3(2.0, 1.0, 0.0); const float scaleDownFactor = 1.0 / 255.0; […]

UIPinchGestureRecognizer定位两个手指之间的夹紧视图

我成功实现了捏放大的视图。 但是,这个观点并不是我所希望的。 对于使用iPad的电子书阅读器,我希望我的视图能够像iPad Photos.app一样居中alignment:当您捏和放大相册时,照片呈现在正在扩展的视图中。 该视图大致以第一手指上的右上angular和另一手指上的左下手指为中心。 我把它和一个泛识别器混合在一起,但是这样用户总是要捏,然后平移来调整。 这里是如此graphics的解释,我可以发布我的应用程序的video,如果这不清楚(没有秘密,我试图重现iPad的Photos.app …) 所以对于手指的初始位置,开始缩放: 这是现在的实际“缩放”框架。 广场更大,但位置在手指下方 这是我想要的:相同的大小,但不同origin.x和y: (抱歉,我可怜的Photoshop技巧^^)

如何在App Store批准的应用程序中获取有关可用内存和运行进程的信息? (是的,有一个!)

App Store中有一个名为“Activity Monitor Touch”的应用程序,它显示后台进程以及可用内存。 所以必须有一个公共API来访问这些信息。 证据: 我已经在寻找天,但找不到任何好的起点。 这个应用程序如何能够把所有这些东西都拿出来,而不会有任何越狱/黑客攻击等等。 直到最近,我确信在iOS上这样的事情是绝对不可能的。 我发现这个代码片段: – (NSArray *)runningProcesses { int mib[4] = {CTL_KERN, KERN_PROC, KERN_PROC_ALL, 0}; size_t miblen = 4; size_t size; int st = sysctl(mib, miblen, NULL, &size, NULL, 0); struct kinfo_proc * process = NULL; struct kinfo_proc * newprocess = NULL; do { size += size / 10; […]

我在哪里可以findiPad示例代码

我知道iPhone有一个带有示例应用程序和iPhone代码的网站。 iPad上有没有资源? 我想用iPad的具体例子,如使用拆分视图等

AVURLAsset拒绝加载video

我试图加载video文件到我的iPad应用程序作为一个AVURLAsset ,使用asynchronous加载的东西,等待它准备好了。 问题是,当我运行它,我得到一个完全通用的“失败”的错误消息,我不知道该怎么办。 如果我把它交给MPMoviePlayerController ,video就可以工作,但是AVURLAsset似乎拒绝与它有任何关系。 码: asset = [[AVURLAsset alloc] initWithURL:[NSURL URLWithString:[docPath stringByAppendingPathComponent:@"video.mov"]] options:nil]; [asset loadValuesAsynchronouslyForKeys:[NSArray arrayWithObject:@"tracks"] completionHandler:^{ dispatch_async(dispatch_get_main_queue(), ^{ [self composeIfReady]; }); }]; … – (void)composeIfReady { NSError *error = nil; if([asset statusOfValueForKey:@"tracks" error:&error] == AVKeyValueStatusFailed) NSLog(@"error loading: %@", [error description]); if(error == nil) NSLog(@"okay awesome"); } 输出: error loading: Error Domain=AVFoundationErrorDomain Code=-11800 "The […]

我怎样才能有一个不透明的UIView作为一个半透明的UIView子视图?

我有一个0.5的alpha的UIView,我把它作为子视图添加到我的主视图中,以便灰化掉其他所有内容。 我想添加一个额外的UIView到这个灰色的UIView作为子视图 – 问题是,当我这样做时,我新添加的子视图也是部分透明的。 有没有办法让一个子视图“忽略”其超视图的alpha值,并使其本身完全不透明?

ld:找不到符号dyld_stub_binding_helper,通常在crt1.o / dylib1.o / bundle1.o中用于架构i386 xcode 5

我创build了iphone / ipad的应用程序,由xcode 4和iOS6运行良好,我安装了xcode 5,我试图运行我的应用程序,但它现在给我下面的错误 ld: symbol dyld_stub_binding_helper not found, normally in crt1.o/dylib1.o/bundle1.o for architecture i386 clang: error: linker command failed with exit code 1 (use -v to see invocation) 我怎样才能解决这个问题? 希望有人帮助我。 提前致谢。

我怎样才能删除UIToolBar顶部边框

我已经将我的UIToolBar tint颜色设置为某个值,并且有我想要删除的此边框线: 我如何删除这个黑色边框>

iPhone 5 – 新图像必须遵循什么命名规则?

新的图像必须由新的iPhone 5加载什么名字惯例? 我们看到,我们必须有3个默认图像被设备加载 Default.png Default@2x.png and Default-568h@2x.png 那么应用程序使用的其他图像呢? 是否有一个命名约定会自动加载正确的图像?