我试图发送一个用户带到服务器的图像。我得到JPEG表示,将其附加到上传照片所需的字符串,然后通过NSOutputStream发送数据。但是,当我试图从服务器上取回照片时,我只能看到它从顶端的10%。任何帮助,将不胜感激。通过NSOutputStream发送UIImage
btw。插座打开并连接。
这里是我的代码:
NSString *requestString = [NSString stringWithFormat:@"SubmitPhoto::%@::", userID];
NSData * stringData = [requestString dataUsingEncoding:NSUTF8StringEncoding];
NSData *imgData = UIImageJPEGRepresentation(image, 1.0);
NSMutableData *completeData = [[NSMutableData alloc] initWithBytes:[stringData bytes] length:[stringData length]];
[completeData appendData:imgData];
//sending NSData over to server
[self.outputStream write:[completeData bytes] maxLength:[completeData length]];
你有没有尝试过不同的JPEG压缩?像(image,0.4f) – ApolloSoftware 2013-03-20 15:02:07
我在想它是否超过了大小限制阈值 – ApolloSoftware 2013-03-20 15:02:25
你可以尝试将图像写入内存(缓冲区)并尝试渲染恢复的图像吗?我试图在内存中执行此操作,并且它可以很好地处理1024 x 683照片。以下是一些示例代码:https://gist.github.com/abellina/5205633。 – abellina 2013-03-20 15:37:46