B站有一個影片,標題起的很猖狂,叫
「誰看了都得臥槽兩聲」
。
一般來說,這樣起標題的,要麼是噱頭滿滿的標題黨,要麼是有真材實料的大神製作;
不過這條影片的播放量還是很高的,達到了286w之多,而且圖中還有反欺詐的陳警官,應該不是騙子;
果然,看看其他人的反應,結果數千條的彈幕裡全都是「臥槽」。
想必看到這,大家應該知道這個影片講啥東西了吧;
就是
一個男性,僅僅利用假髮、美顏和音效卡,分分鐘變裝,成為膚白聲美錐子臉的小姐姐
,前後的反差,不可謂不大。
看過之後,任誰都得感慨一句,美顏這個邪術,隨著技術的更新換代,是越走越遠了。
甚至遠到那些為主播美顏忘開而心碎,為奔現「那我走」而失望的段子層出不窮。
說真的,如果你和我一樣,常常混跡於各個平臺變裝、跳舞小姐姐們的內容下,會發現大家對於美顏這個技術孵化出來的產物,同樣是爭論的厲害。
取兩極來看,一邊是「這也太好看了」的誇讚。
一邊則是恨不得對美顏效果零容忍,欣賞過後留下「修的太多了」、「P 的太過了」、「美顏也太不真實了」的批判。
尤其是後者,往往會覺得「人造美」是把觀者玩弄在股掌之間的褻瀆,是對自己的欺騙,生圖素顏之美才是賽高。
但問題來了,且不說素顏能打的當有幾人,拍照時光線的抉擇、背景的搭配、角度的不一致等等,這些外在的細節,不也算是一種美顏嘛?
你說乾乾淨淨、大大方方是美;他說磨皮瘦臉、美妝特效、黑絲高跟、脖子以下都是腿是美,美這種主觀評判的標準,怎麼會有統一的答案。
但有一點我們必須承認,那就是從古至今,愛美之心人皆有之,要是古代有美顏,龐統第一次去劉備那裡交簡歷,也不會因為張飛嫌人家醜,而打發他去做個小縣令了。
所基於「愛美之心人皆有之」的共識,這十幾年來,應需而生的
美顏技術
,在努力配合我們對美的追求。
2008 年上線的美圖秀秀,是如今當之無愧的美顏啟蒙「教父」,它的出現,可以不用你去找專業的修圖師 P 圖,不用你去花上大把時間捯飭自己的臉蛋,
小手一滑,照片裡的你就變得不一樣了。
如果下載軟體你還覺得是件麻煩事,那手機廠商們早已把美顏功能嵌入到了攝像頭內;
所以現在我們回過頭來看,美顏這一行為算是詐騙嗎?
有一種聲音認為,至少主觀追求美的美顏行為,不該被輕易扣上「虛假」的帽子,因為我們不能否認任何一個人對美的追求,不管是高低胖瘦的,美顏又何錯之有?
但,
美顏技術的使用,是應該存在邊界的。
技術本身是無屬性的不假,但手握技術的人能向善,自然也能夠向惡。
就拿開頭那個小哥哥瞬間變裝小姐姐的影片來說,好在它是一個宣傳反詐的教程,兩聲臥槽就解決了心頭激動。
但如果此時的美顏被惡意用到詐騙,頂著一張精緻的臉,嬌聲喊兩句哥哥,目的不過是騙一杯奶茶紅包的時候,我想這是誰也不願意見到的。
如果你說詐騙太小眾,美顏的邊界不該停留於此,還會影響普世價值觀下的審美,這點我也是認同的。
畢竟這個基於演算法幫人解決瑕疵的美顏技術,總是要有一套模板和傾向。
最常見的美白、瘦臉、大眼、拉長腿的操作,難免會造就出一大批同質化嚴重的「網紅臉」、「網紅身材」。
在這個過程中,很難保證不會被迫製造出變相的容貌焦慮,黑絲看多了,也是會膩的,何況是清一色的美顏呢。
對於用者,和自己握手和好的同時,利用美顏追求一份新的美,並無不妥;
而對於觀者,請對不同的美抱有寬容,對相似的美顏特效抱有審視,這大概就是我們能做的,也是該做的。
附:美顏演算法技術簡介
“美顏美顏”,顧名思義,對圖片裡的人臉進行美化;在圖片類、短影片類和直播類的APP中,都存在“美顏”的影子:
圖片類的APP中,最具代表性的是美圖秀秀,美圖的人像美容,便用到了“美顏”技術;
短影片類的APP中,突出的是抖音和快手,這類APP在錄製短影片的時候,有美顏、美妝等選項;
直播類的APP中,像映客、YY等都在主播進行直播時加入了“美顏”技術。
“美顏”是一個
深度學習+影象處理+圖形學的技術
。牽涉到這些技術包括:人臉檢測、人臉關鍵點定位、瘦臉、磨皮、美白等。
其中,人臉檢測、人臉關鍵點定位,是用深度學習技術來做的;
而瘦臉、磨皮和美白就牽涉到計算機圖形學裡的技術,使用OpenGL(Open Graphics Library,開源圖形庫),Metal(蘋果圖形渲染和平行計算庫)來對檢測到的人臉進行渲染。
1 人臉檢測
人臉檢測主要的技術難點在於,人臉在一張圖片中可能存在人臉區域光照條件,人臉姿態變化、人臉表情變化、遮擋等問題。準確的檢測出人臉相對來說是一件困難的事情。
人臉檢測也可分為兩個時期:一個是深度學習之前的時期,另一個是深度學習時期。在深度學習之前,人們做人臉檢測,主要使用人工設計好的特徵,根據人工特徵來訓練檢測器檢測人臉。
當深度學習在計算機視覺領域佔據絕對主導地位之後,人們開始嘗試用深度神經網路來做人臉檢測;目前,主流的人臉檢測方法大概有這麼兩種:
一種是使用通用的目標檢測網路來訓練人臉檢測模型,如faster-rcnn(一種目標檢測網),ssd (Single Shot MultiBox Detector),yolo (You Only Look Once) 等等;
另一種是使用專門的人臉檢測網路,如cascadeCNN(Convolutional Neural Network Cascade for FaceDetection,級聯結構的卷積神經網路,一種目標檢測網路),MTCNN(Multi-task Cascaded Convolutional Neural Network,多工級聯卷積神經網路)等等。
2 人臉關鍵點
人臉關鍵點定位技術是對人臉中眉毛、眼睛、鼻子、嘴巴以及臉部的輪廓進行定位,人臉關鍵點定位是緊接在人臉檢測後:首先在一張圖片中檢測到人臉,然後才對檢測到的人臉做關鍵點定位。
人臉關鍵點定位技術同人臉檢測技術一樣,在實際應用中,也存在人臉的尺度、光照、表情、姿態、遮擋等問題。
要對絕大多數圖片獲得準確的人臉關鍵點,也是一個比較難的任務。
人臉關鍵點定位技術也可分為深度學習前的時期和深度學習時期:傳統的人臉關鍵點技術,有ASM(Active Shape Model,主動形狀模型),AAM (Active Appearance Model,主動外觀模型),CPR(Cascaded Pose Regression,級聯姿勢迴歸)等等;
2013年,香港中文大學首次將卷積神經網路應用到人臉關鍵點定位上來。目前,落地到產品上的人臉關鍵點定位,基本都是基於深度學習技術。
有了關鍵點以後,便可以對圖片中人臉區域做瘦臉、磨皮、美白等“美顏”操作。
這些演算法一般應用在移動裝置上:在Android上可以使用OpenGL ES(OpenGL for Embedded Systems,嵌入式系統的OpenGL),在iOS上可以使用Metal根據人臉關鍵點的位置,對人臉進行瘦臉、磨皮、美白之類的渲染。
3 瘦臉
在OpenGL或Metal環境下,在shader(紋理)中透過對畫素位置進行偏移來實現對臉部區域的放大縮小:由變形前座標,根據變形對映關係,得到變形後坐標。
這其中變形對映關係是最關鍵的,不同的對映關係,將得到不同的變形效果。平移、縮放、旋轉,對應的是不同的對映關係,即不同的變換公式。
當然實際在計算過程中,用的是逆變換,即由變形後坐標,根據逆變換公式反算變形前座標,然後插值得到該座標RGB畫素值,將該RGB值作為變形後坐標對應的畫素值。
4 磨皮
所謂“磨皮”,是使面板變得更加光滑,其技術原理是:在圖片的人臉框部分再進行一次膚色檢測。只對人臉區域做磨皮,磨皮一般使用影象處理的一些濾波演算法。
膚色檢測可分兩大類,一類是用顏色空間統計資訊,來計算出面板所在的區域,另一類是基於機器學習的方法。
濾波演算法一般可以使用高斯濾波或者雙邊濾波等。
5 美白
圖片的美白,是操作這個圖片上的所有畫素點,獲得畫素點的R、G、B、A的值然後獲取到的值進行一定數目的增量。
在影象處理領域中,一張圖片會使用三原色 red、green、blue來儲存圖片的顏色資訊,三個值的取值範圍是0-255;
越靠近0,影象就越黑,等於0的時候就是純黑色;越靠近255,影象就越白,等於255的時候就是白色。
圖片的美白就是利用的這個原理。
由清北校友發起,泛金融 / IT社群;
資料在手,天下我有;關注公號,申請進群~
由於微信更改了推送規則,讀完請點一下
“
在看
”
和
“
點贊
”
,這樣每次新文章推送就會第一時間出現在您的訂閱列表裡。