十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
我觉得安卓系统值得推荐的滤镜app有激萌相机,快拍,美图秀秀等等。这些app都带有比较全面的滤镜,而且,相对来说质量都比较高,其实是新手也能拍出时尚大片的感觉。说道美颜和滤镜,我觉得爱拍是最强大的,可以将你完全变成另一个人,它有多种调节方式,有无极调光和柔光三色不管是直播还是拍摄,都能起到很好的效果,就像是爱拍上的一个男博主,利用美颜和滤镜把自己变成一个很好看的女生一样。
网站建设哪家好,找成都创新互联公司!专注于网页设计、网站建设、微信开发、成都微信小程序、集团企业网站建设等服务项目。为回馈新老客户创新互联还提供了舞钢免费建站欢迎大家使用!
Android Paint之颜色过滤器
Paint之shader(图像渲染)
Paint之PathEffect(路径效果)
Paint API之—— MaskFilter(面具)
android之绘图工具类详解
Paint API之—— Xfermode与PorterDuff全面详解
Paint API之—— Xfermode与PorterDuff详解(三)动画效果
Paint枚举、常量值、阴影效果、字体
上节我们学习了MaskFilter(面具),用它的两个子类BlurMaskFilter弄了下模糊效果,EmbossMaskFilter 弄了下浮雕效果,而本节我们来学习的是另一个API—— ColorFilter (颜色过滤器),和MaskFilter一样, 我们并不直接使用该类,而是使用该类的三个子类:
本节我们就来学习下第一个ColorMatrixColorFilter的使用吧,打开ColorMatrixColorFilter的文档,
大概说的是:通过一个4 x 5的颜色矩阵来变换颜色,可以修改像素的饱和度,将YUV转换成RGB等! 而构造方法中的ColorMatrix就是颜色矩阵,也是我们学习的核心,下面听我一一道来!
RGBA不知道你听过没,黄绿蓝知道了吧,光的三基色,而RAGB则是在此的基础上多了一个透明度! R(Red红色) , G(Green绿色) , B(Blue蓝色) , A(Alpha透明度) ;另外要和颜料的三 原色区分开来哦,最明显的区别就是颜料的三原色中用黄色替换了光三基色中的绿色!知道下就好, 有兴趣的可自行百度~
中文直译为“色彩矩阵颜色过滤器”,我们要先了解什么是色彩矩阵。在Android中图片是以RGBA像素点的形式加载到内存中的,修改这些像素信息需要一个叫做ColorMatrix类的支持,这个类其实定义的是一个矩阵,是一个4x5的float[]类型的矩阵:
其中,第一行表示的R(红色)的向量,第二行表示的G(绿色)的向量,第三行表示的B(蓝色)的向量,最后一行表示A(透明度)的向量,这一顺序必须要正确不能混淆!你可能会问,那么列呢?我用图例来表示一下。
这个矩阵不同的位置表示的R、G、B、A值,其范围在0.0F至2.0F之间,1为保持原图的RGB值。每一行的第五列数字表示”偏移值“。
何为偏移值?顾名思义当我们想让颜色更倾向于红色的时候就增大R向量中的偏移值,想让颜色更倾向于蓝色的时候就增大B向量中的偏移值,这是最最朴素的理解,但是事实上色彩偏移的概念是基于白平衡来理解的。
什么是白平衡呢?说得简单点就是白色是什么颜色!在单反的设置参数中有个色彩偏移,其定义的就是白平衡的色彩偏移值,就是当你去拍一张照片的时候白色是什么颜色的,在正常情况下白色是(255, 255, 255, 255)但是“现实世界中我们是无法找到这样的纯白物体的”,所以在我们用单反拍照之前就会拿一个我们认为是白色的物体让相机记录这个物体的颜色作为白色,然后拍摄时整张照片的颜色都会依据这个定义的白色来偏移!而这个我们定义的“白色”(比如:255, 253, 251, 247)和纯白(255, 255, 255, 255)之间的偏移值(0, 2, 4, 8)我们称之为白平衡的色彩偏移。
测试一下:
我们想要绘制一个橙色的圆圈,橙色的效果如下:
我们建立一个矩阵,然后看看效果。
看看效果:
你会发现颜色没有任何变化,为什么呢?因为矩阵的1表示不做任何变化,也就是保持原样。我们换一个下面的矩阵就能看到效果了。
说明:如果在eclipse实时预览的话,它会提示说如果你设置了这个属性,那么eclipse可能无法准确的给你一个预览图。别担心,实际运行的时候就出来了。
我们来看看这个矩阵是怎么计算的。其实说白了就是矩阵之间的运算乘积:
矩阵ColorMatrix的一行乘以矩阵MyColor的一列作为矩阵Result的一行,这里MyColor的RGBA值我们需要转换为[0, 1]。通过这种计算我们可以将我们自己设定的颜色和矩阵的颜色进行叠加,创立一个新的颜色。
再测试一下:
如果我们用它来给图片改颜色,该怎么做呢?下面的例子将会演示一下。
原本图片:
加上滤镜后:
现在我们知道了,ColorMatrixColorFilter和ColorMatrix就是这么个东西,ColorMatrix类里面也提供了一些实在的方法,比如setSaturation(float sat)设置饱和度,而且ColorMatrix每个方法都用了阵列的计算,如果大家感兴趣可以自己去深挖。
顾名思义光照颜色过滤,这肯定是跟光照是有关的了。该类有且只有一个构造方法:
mul全称是colorMultiply意为色彩倍增,而add全称是colorAdd意为色彩添加,这两个值都是16进制的色彩值0xAARRGGBB。这个方法使用也是非常的简单。还是拿上面那张图片来说吧,比如我们想要去掉绿色:
运行后你会发现绿色确实是没了但是原来偏绿的部分现在居然成了红色,当LightingColorFilter(0xFFFFFFFF, 0x00000000)的时候原图是不会有任何改变的,如果我们想增加红色的值,那么LightingColorFilter(0xFFFFFFFF, 0x00XX0000)就好,其中XX取值为00至FF。
PorterDuffColorFilter跟LightingColorFilter一样,只有一个构造方法:
这个构造方法也接受两个值,一个是16进制表示的颜色值这个很好理解,而另一个是PorterDuff内部类Mode中的一个常量值,这个值表示混合模式。那么什么是混合模式呢?混合混合必定是有两种东西混才行,第一种就是我们设置的color值而第二种当然就是我们画布上的元素了!也就是说将画布上的元素和我们设置的color进行混合,产生最终的效果。
你可以类比为PS中的混合模式,只是PS的图层混合模式比Android更多更广泛,但两者同名混合模式所产生的效果是一样的,也基于同样的算法原理这里就不多说了。
但是这里要注意一点,PorterDuff.Mode中的模式不仅仅是应用于图像色彩混合,还应用于图形混合,比如PorterDuff.Mode.DST_OUT就表示裁剪混合图。
上一章加载图片的过程,在这里就不做赘述。
之前我们通过YUV数据格式的处理知道,只要保留Y的数据,就是灰度的图片。但是OpenGL中处理的是RGB格式的数据,我们要如何去取得灰度图呢?
我们可以通过公式,计算出新的RGB值,就是灰度的图片了。
我们的目标已经确定。下面我们需要将片段着色器上的每个像素的RGB值,通过上面的公式计算,装换成我们的灰度值。
根据上面的思路,我们需要去改片元着色器。 texture_fragment_shader.glsl
对比之前的,需要是有如下的修改点:
按照之前的想法,我们需要将我们的公式中的系数传递进入,就可以完成我们的操作了。基于之前的认识,我们知道传递我们的属性 uniform 给OpenGL的都是通过创建数组,绑定属性,这一套流程。
与上面的黑白色的处理相似,冷色调的处理就是单一增加蓝色通道的值,暖色调的处理可以增加红绿通道的值。
不管是冷色还是暖色。每个像素的颜色都和我们传入的色值相加,产生偏置之后的颜色。同时还要确保颜色的值合法。如果超过最大,或者小于最小,就用极限值表示。
还是之前的套路。
红黄通道增加的结果
蓝色通道增加的结果
图片模糊处理相对上面的色调处理稍微复杂一点,通常图片模糊处理是采集周边多个点,
然后利用这些点的色彩和这个点自身的色彩进行计算,得到一个新的色彩值作为目标色彩。
模糊处理有很多算法,类似高斯模糊、径向模糊等等。
最常用的还是高斯模糊。先看一下高斯模糊的原理。
使用正态分布作为权重分配模式,对周围像素取平均值的方式,就是高斯模糊。
在图形上,正态分布是一种钟形曲线,越接近中心,取值越大,越远离中心,取值越小。
计算平均值的时候,我们只需要将"中心点"作为原点,其他点按照其在正态曲线上的位置,分配权重,就可以得到一个加权平均值。
上面的正态分布是一维的,图像都是二维的,所以我们需要二维的正态分布。
二维高斯函数:
有了这个函数 ,就可以计算每个点的权重了。
为了计算权重矩阵,需要设定σ的值。假定σ=1.5,则 模糊半径为1 的权重矩阵,权重之和等于1,得到最终的权重矩阵。
对所有点重复这个过程,就得到了高斯模糊后的图像。如果原图是彩色图片,可以对RGB三个通道分别做高斯模糊。
如果一个点处于边界,周边没有足够的点,怎么办?
一个变通方法,就是把已有的点拷贝到另一面的对应位置,模拟出完整的矩阵。
上面着色器。我们是计算好了卷积核,直接在 shader 内写死应用的。
这一小节的内容耗时比较长。其实就是利用OpenGL的shader对图像进行简单的滤镜处理。
从这节我们学习到
下一章,会回到Android的内容。将OpenGl和Camera结合在一起。通过OpenGl来显示一个预览的画面。
废话少说,先举个例子
这个例子其实在 android端使用ffmpeg给视频添加图片水印 里已经说过了。
这是一个给视频打上图片水印的命令。
然而,他打的不是一个普通的水印,而是两个。
命令看上去很简洁。然而(又是然而),正因为他这么简洁,所以一开始上来未免搞不清他实际是什么意思。
来,我们把他拆开,其实他由以下部分组成:
1、2、4部分的含义一目了然。3里头的scale和overlay也是字面的意思,不难理解。然而,-filter_complex滤镜的参数结构就不是那么好理解了,比如说那一坨[]里头的东西是什么鬼?
来,一个个解释。
[1:v]这个里头两个参数,1表示的是操作对象的编号。在本例中0就是原始视频文件input.mp4,1就是image1.png,2就是image2.png,3就是output.mp4。而另一个参数v表示操作对象里的视频信息。
[img1]是这个操作过滤器的名字。(当然名字可以随便起)
所以这头一句 [1:v]scale=100:100[img1] 的意思就是对图片imagei.png进行调节尺寸的操作,并将这个操作的结果命名为img1。后面的[2:v]和[img2]也是一个意思。
我们继续,overlay前面 [0:v][img1] 凑一起是什么意思呢。0自然就是指的原始视频,这句的意思就是将[img1]叠加到0对象的视频上。本例中就是把image1.png叠加到input.mp4上。这里需要注意的就是顺序:后一个对象叠加到前一个上,后一个对象在上层。如果写成 [img1][0:v] ,那相对本例其实就是把视频叠加到图片imge1.png上。这样的话一般来说由于视频通常是全屏,等于用视频覆盖了图片,水印完全看不到了。
好,我们又把这个操作的结果命名为[bkg],那么接下来 [bkg][img2] 的意思就很明了了。就是把image2.png再叠加上去,image2.png是在最上层的,如果位置重合的话,他会遮盖 image1.png的水印。
于是,事就这样成了。
1.水印的移动:
这里需要用到时间参数。
比如: overlay=0+t*20:0
这里在x坐标上加上了 +t*10 ,于是水印就会慢慢向右边移动。
2.特定时间显示水印:
这次不仅要用到时间参数,还要用上条件语句。
if条件语句的基本结构就是
再来看看计算表达式。
这里用到了表达式 gte(x,y) 。如果x大于等于y则表达式的值为1,反之为0。
所以 if(gte(t,2),10,NAN) 的意思就是,当时间大于等于2秒时,水印x位置为10,反之不显示水印。(或者你也可以用 lte 来判断“小于或等于”)
要了解所有表达式的话,可以去啃一下ffmpeg官方文档的 Expression Evaluation 部分。
参考:
ffmpeg 基本用法大全
ffmpeg Documentation
contrast
n.对比,对照; 差异; 对照物,对立面; [摄]反差;
[英][ˈkɒntrɑ:st][美][ˈkɑ:ntræst]
contrast
[英][kənˈtrɑ:st][美][kənˈtræst]
vi.对比; 形成对照;
vt.使对照,使对比; 和…形成对照;