对于大型的GitLab fork来说,Nginx的502错误网关

我通过Nginx运行GitLab 6.0.0,并可以分叉小型库,但是当我尝试fork一个大型的存储库(2GB)时,大约一分钟后我看到一个502 Bad Gateway页面

/var/log/Nginx/gitlab_error.log显示

2013/08/29 12:21:33 [error] 25098#0: *221 upstream prematurely closed connection while reading response header from upstream,client: 12.34.56.78,server: myserver,request: "POST /mygroup/myproject/fork HTTP/1.1",upstream: "http://unix:/home/git/gitlab/tmp/sockets/gitlab.socket:/mygroup/myproject/fork",host: "myserver",referrer: "http://myserver/mygroup/myproject/fork"

git:在rebase期间自动合并union策略

与本地存储库在Windows上使用capistrano部署会引发错误

使用Git的Windows SSH失败

让git bash在当前版本库中启动

Git Bash不会运行我的python文件

通过Windowsbatch file的git更新子模块

Git以Windows格式打印文件

尝试git子树拆分时断言失败错误

GIT:设置应用程序的环境variables

我如何在Windows中整合两个不同的git目录?

问题1527提出了一个内存问题(以及文档中提到的内存需求 )。

也可能是因为初始超时:

我发现这个错误也会发生,因为麒麟工人有时需要33秒才能启动,并且他们被配置为在30秒后超时。

你可以修改独角兽配置文件/home/git/gitlab/config/unicorn.rb :

timeout 300

在你的Nginx配置中,你也可以添加

proxy_connect_timeout 300; proxy_read_timeout 300;

如果你的Nginx一个/etc/Nginx/fastcgi_params文件,你可以添加

fastcgi_connect_timeout 60; fastcgi_send_timeout 180; fastcgi_read_timeout 180; fastcgi_buffer_size 156 16k; fastcgi_buffers 256 16k; fastcgi_busy_buffers_size 256k; fastcgi_temp_file_write_size 256k; fastcgi_intercept_errors on; fastcgi_max_temp_file_size 0 fastcgi_pass unix:/tmp/fpm.sock;

请注意,在502之后,在做出上述修复之后,在尝试再次访问gitlab之前清除浏览器缓存是一个好主意。

我和你的导游一样。 但是在fastcgi配置上有一些改变。

fastcgi_pass unix:/home/git/gitlab/tmp/sockets/gitlab.socket;

非常感谢您的指导!

TWINQ78

相关文章

本篇内容主要讲解“gitee如何上传代码”,感兴趣的朋友不妨来...
这篇“从gitee上下的代码如何用”文章的知识点大部分人都不太...
这篇文章主要介绍“gitee如何下载仓库里的项目”,在日常操作...
本篇内容主要讲解“怎么在Gitee上更新代码”,感兴趣的朋友不...
本文小编为大家详细介绍“怎么将工程托管到gitee”,内容详细...
这篇文章主要介绍了gitee中图片大小如何调整的相关知识,内容...