依然
- 依然 发表了说说继续努力呀
- 依然 2021-10-21 已签到连续签到14天,获得了20个金钱
- 依然 发表了说说时间就是金钱
- 依然 2021-10-20 已签到连续签到13天,获得了20个金钱
- 依然 发表了说说有点累
- 依然 2021-10-19 已签到连续签到12天,获得了20个金钱
- 依然 2021-10-17 已签到连续签到10天,获得了20个金钱
- 依然 2021-10-16 已签到连续签到9天,获得了20个金钱
- 依然 2021-10-18 已签到连续签到11天,获得了20个金钱
看看。希望可用
可以用的,我自己有测试过
1.利用前端的遍历(轮询)请求来合并上传的分块
2.在合并的时候又使用文件锁,防止并发合并合并失败分二种情况:
一种是数据合并异常,合并到某个块突然断开,则接下来合并接着上一个块进行合并,并没有删除游标文件和临时合并文件
另一种,一般是程序进程突然被杀死导致,数据流写一半到临时文件(该种情况只是猜测有这种可能),则会删除游标和合并的临时文件,重新进行合并
3.前端使用两个加密hash使上传的文件获取唯一标识,防止文件刚好一种加密hash重复的问题
4.目前试过上传1.5G左右的没有发现问题(未试过更大的文件),更大的文件理论上是没有问题
5.下载的类库也包含在该库里面,支持断点下载,支持下载1.5G左右的文件(未试过更大的文件),更大的文件理论上是没有问题
6.无需使用flash,flash都淘汰了