ios – 在界限之外模糊UIImage(Photoshop风格)

我试图在复制我的photoshop模型的UI Image上进行高斯模糊.

期望的行为:
在Photoshop中,当我运行高斯模糊滤镜时,由于边缘模糊,图像层会变大.

观察到的行为:使用GPUImage,我可以成功模糊我的UIImages.但是,新图像在原始边界处被裁剪,一直留下硬边.

设置UIImageView.layer.masksToBounds = NO;没有帮助,因为图像被裁剪而不是视图.

我还尝试在模糊之前将UIImage置于较大的清晰图像上,然后调整大小.这也没有帮助.

有没有办法实现这种“Photoshop风格”模糊?

更新工作解决方案感谢Brad larson:

UIImage sourceImage = ...
GPUImagePicture *imageSource = [[GPUImagePicture alloc] initWithImage:sourceImage];
GPUImageTransformFilter *transformFilter = [GPUImageTransformFilter new];
GPUImageFastBlurFilter *blurFilter = [GPUImageFastBlurFilter new];

//Force processing at scale factor 1.4 and affine scale with scale factor 1 / 1.4 = 0.7
[transformFilter forceProcessingAtSize:CGSizeMake(SOURCE_WIDTH * 1.4,SOURCE_WIDTH * 1.4)];
[transformFilter setAffineTransform:CGAffineTransformMakeScale(0.7,0.7)];

//Setup desired blur filter        
[blurFilter setBlurSize:3.0f];
[blurFilter setBlurPasses:20];

//Chain Image->Transform->Blur->Output        
[imageSource addTarget:transformFilter];
[transformFilter addTarget:blurFilter];
[imageSource processImage];

UIImage *blurredImage = [blurFilter imageFromCurrentlyProcessedOutputWithOrientation:UIImageOrientationUp];

解决方法

GPUImage只会生成一个处理到图像极限的结果.为了扩展您的图像,您需要扩展它运行的画布.

为此,您需要将图像提供给GPUImageTransformFilter,然后使用-forceProcessingAtSize:或-forceProcessingAtSizeRespectingAspectRatio:来扩大工作区域.但是,这也会认放大图像,因此要对此进行处理,请使用GPUImageTransformFilter进行缩放变换,以减小图像相对于较大区域的大小.这将使其保持相同的像素尺寸,同时将其放置在更大的整体图像中.

然后,您需要做的就是将此输出提供给模糊滤镜,模糊现在将延伸到原始图像的边缘.强制图像的大小取决于模糊需要延伸到原始图像边缘的距离.

相关文章

当我们远离最新的 iOS 16 更新版本时,我们听到了困扰 Apple...
欧版/美版 特别说一下,美版选错了 可能会永久丧失4G,不过只...
一般在接外包的时候, 通常第三方需要安装你的app进行测...
前言为了让更多的人永远记住12月13日,各大厂都在这一天将应...