遇到奇怪的问题,帮助威猛答案,表单提交的文件提交的无限数据问题

server环境
php环境

出现情况:上传30M文件的时候 本地数据一直在提交,观察serverio 也一直有下载流量。

可是就没有个结束。php输出 $_FILES,也不会运行到这行代码。比方我提交30M文件表单提交。可是流量预计超过好几百M也不会停止。反正不人为停止脚步,就是不断在数据交互。请问有大哥碰到这情况吗?是否哪些php配置没配置对




大文件上传问题已解决 以我測试上传32M文件大小为例

php 执行方式 FPM-FCGI

php.ini 

upload_max_filesize = 64M//上传文件最大限制

post_max_size = 100M //POST方法提交最大限制 最好大于上面

max_execution_time = 300//脚本超时时间
max_input_time = 300
memory_limit = 200M //假设不够大。会导致内存溢出500错误

nginx.conf

client_max_body_size 100m; //依据文件大小自己调整提交空间


以上解决方式。

自己查百度摸索出来分享下。有哪位大能能对大文件上传有比較系统的配置优化方案例希望指点一二。谢谢!

版权声明:本文博客原创文章,博客,未经同意,不得转载。

原文地址:https://www.cnblogs.com/yxwkf/p/4678464.html