Tag: Apache

如何将-D参数或环境variables传递给Spark作业?

我想在dev / prod环境中更改Spark作业的Typesafeconfiguration 。 在我看来,最简单的方法是将-Dconfig.resource=ENVNAME传递给作业。 然后Typesafeconfiguration库将为我做这个工作。 有没有办法直接把这个选项传递给工作? 或者也许有更好的方法来改变运行时的作业configuration? 编辑: 当我将–conf "spark.executor.extraJavaOptions=-Dconfig.resource=dev"选项添加到spark-submit命令时,没有任何反应。 我得到Error: Unrecognized option '-Dconfig.resource=dev'. 当我通过-Dconfig.resource=dev的火花提交命令。

如何在XAMPP上创build虚拟主机

我确信这个问题被多次提出,但是我没有遇到一个问题。 我正在使用XAMPP来configurationZend框架。 XAMPP在PORT 8081上运行,因为80正在被一些Windows进程占用,我需要使用虚拟主机,因为我在httpd-vhosts.config中configuration了以下代码,出现在C:/ xampp / apache / config / extra / <VirtualHost *:80> ServerName comm-app.local DocumentRoot "C:/xampp/htdocs/CommunicationApp/public" SetEnv APPLICATION_ENV "development" <Directory "C:/xampp/htdocs/CommunicationApp/public" DirectoryIndex index.php AllowOverride All Order allow,deny Allow from all </Directory> </VirtualHost> 并用127.0.0.1 comm-app.local更新hosts文件,并尝试重新启动apache,但显示错误。 15:03:01 [Apache] Error: Apache shutdown unexpectedly. 15:03:01 [Apache] This may be due to a blocked port, missing dependencies, 15:03:01 […]

我应该为Sparkselect哪种types的集群?

我是Apache Spark的新手,刚刚了解到Spark支持三种types的集群: 独立 – 意味着Spark将pipe理自己的群集 YARN – 使用Hadoop的YARN资源pipe理器 Mesos – Apache的专用资源pipe理器项目 由于我是Spark新手,所以我觉得我应该先尝试一下Standalone 。 但我想知道哪一个是推荐的。 说,将来我需要build立一个大的集群(数百个实例),我应该去哪个集群types?

SSL收到的logging超出了允许的最大长度。 (错误代码:ssl_error_rx_record_too_long)

我遵循https安装的官方文档位于: https : //help.ubuntu.com/6.06/ubuntu/serverguide/C/httpd.html#https-configuration 我必须从中删除+CompatEnvVars SSLOptions +FakeBasicAuth +ExportCertData +CompatEnvVars +StrictRequire 因为它说这是一个无效的命令或什么的。 所以删除了,并按照说明指甲它得到的错误: SSL received a record that exceeded the maximum permissible length. (Error code: ssl_error_rx_record_too_long) 我是SSL的新手,有什么问题的意见?

OpenSSL不能在Windows上工作,错误0x02001003 0x2006D080 0x0E064002

问题: OpenSSL不能在我的Windows环境中工作。 OpenSSL反复报告错误0x02001003,0x2006D080和0x0E064002。 环境: Windows NT x 6.1 build 7601 (Windows 7 Business Edition Service Pack 1) i586 Apache/2.4.4 (Win32) PHP/5.4.13 x86 PHP Directory: E:\wamp\php\ Virtual Host Directory: E:\Projects\1\public_html 我试过的东西: 安装说明 http://www.php.net/manual/en/openssl.installation.php PHP.ini extension=php_openssl.dll Openssl.cnf E:\wamp\php\extras\openssl.cnf %PATH% E:\wamp\php 重新启动 的phpinfo: —-启用OpenSSL支持 —- OpenSSL库版本OpenSSL 1.0.1e 2013年2月11日 —- OpenSSL头文件版本OpenSSL 0.9.8y 2013年2月5日 有和没有在configargs指定configuration 有和没有在Apacheconfiguration中指定<Directory E:\wamp\php\extras> 复制openssl.cnf到虚拟主机public_html,指出,仍然得到相同的错误 没有任何logging在error_log 研究:我花了最后2天研究这个,惊讶没有更多的信息,所以我在这里发布。 […]

我怎样才能让虚拟主机接受多个域名?

我有两个不同的域,我想用这个网站,我怎样才能configuration虚拟主机,使其工作? 是否可以分配多个服务器名称?

Spark:使用单键RDDjoin2元组密钥RDD的最佳策略是什么?

我有两个我想join的RDD,他们看起来像这样: val rdd1:RDD[(T,U)] val rdd2:RDD[((T,W), V)] 恰好是rdd1是唯一的,并且rdd1的元组键值是唯一的。 我想join两个数据集,以便获得以下rdd: val rdd_joined:RDD[((T,W), (U,V))] 什么是最有效的方法来实现呢? 以下是我想到的一些想法。 选项1: val m = rdd1.collectAsMap val rdd_joined = rdd2.map({case ((t,w), u) => ((t,w), u, m.get(t))}) 选项2: val distinct_w = rdd2.map({case ((t,w), u) => w}).distinct val rdd_joined = rdd1.cartesian(distinct_w).join(rdd2) 选项1将收集所有的数据,掌握,对吧? 所以,如果rdd1很大(在我的情况下它相对较大,虽然比rdd2小一个数量级)似乎不是一个好的select。 选项2做了一个丑陋的独特的笛卡尔产品,这看起来效率很低。 另一种可能性是我想到的(但还没有尝试过),就是做选项1并播放地图,不过最好以“智能”的方式进行广播,以便地图的键与rdd2键。 有没有人遇到过这种情况? 我很乐意有你的想法。 谢谢!

会话文件在Apache / PHP中的位置

在Ubuntu 10.10上安装Apache / PHP时,会话文件的默认位置是什么?

什么Web服务器用于Luanetworking开发

我应该使用什么Web服务器(以及为什么)来进行Lua Web开发?

我怎样才能看到有多lessMySQL连接打开?

如何通过在Apache上运行的PHP中的mysql_connect来查看在当前请求期间打开了多less个连接? 我知道,如果我用相同的参数调用mysql_connect函数100次,它将始终返回相同的连接链接。 一旦连接已经存在,它将不会启动新的连接。 但我只是想确保mysql_connect没有启动一个新的。 我正在使用一个包含许多mysql_connect函数调用的遗留系统。 有没有在Apache的任何设置,或者有什么办法我可以在Apache或MySQL日志文件中logging这个连接数量?