歡迎登錄中國視覺網!
行業新聞頻道
INDUSTRY NEWS
當前位置:首頁 >> 行業新聞 >> 熱點聚焦 >> 安森美半導體智能感知策略及方案媒體交流會

安森美半導體智能感知策略及方案媒體交流會

發布時間:2019-05-21     來源:中國視覺網       訪問次數:1670

安森美半導體智能感知部全球市場及應用工程副總裁 易繼輝(Sammy YI)

   2019年5月15日,安森美半導體的前身是摩托羅拉半導體,1999年從摩托羅拉半導體分拆。摩托羅拉最強的一點是質量管控,比如市場上非常受歡迎的6-Sigma(6西格瑪)就是由摩托羅拉研發的。目前汽車、消費電子等行業都在使用這管理方法。安森美半導體現在全球員工總數超過3.2萬人,2018年總收入近60億美元,產值在五六年間翻了約一倍。其中,汽車領域收入占比約1/3,工業領域收入約占比1/4,通信領域約占比1/5??梢鑰闖?,安森公司發展比較均衡,汽車和工業是兩個主要板塊。汽車和工業也是近年發展勢頭最好的兩個行業。
   安森美半導體分三個產品部門:電源方案部(PSG)、模擬方案部(ASG)和智能感知部(ISG)。安森美半導體在整個電源行業表現非常出色。I圖像傳感器部門(Image Sensor Group)更名為智能感知部門(Intelligent Sensing Group)。這次改動不僅僅是名稱意義上的更改。




   按終端市場收入劃分,我們公司汽車市場約占比1/3,工業市場約占比1/4,通信市場約占比1/5;按區域市場收入劃分,亞太地區占比總收入超過2/3,其中中國市場舉足輕重。
   在代理商的使用方面,我們和競爭對手的做法有很大的不同。和代理公司維持緊密的合作關系是安森美半導體的一個戰略方向。目前我們的競爭對手在代理使用上都在逐漸減少,而安森美半導體卻逐年增加。




   2018年,安森美公司得了很多獎項。安森美半導體在尚未和摩托羅拉拆分之前,作為一個整體,摩托羅拉是世界500強公司。拆分之后,安森美半導體去年成功進入《財富》美國大公司500強這是我們多年布局努力實現的目標之一。另外,最讓我們感到驕傲的是,安森美半導體連續四年獲選“世界最道德企業”。整個半導體行業,只有2-3家獲選過,而我們是連續四年獲得該榮譽的公司。




   我們智能感知部的終端市場有很多,包括航空國防、科學研究、醫療,但是汽車、機器視覺、邊緣人工智能是我們最重要的三大市場方向。我們所提供的技術、產品和能力主要也是針對這三個方向。
   智能傳感器(后面我會對傳感器的類別進行詳述)、深度感知、傳感器融合,是感知未來發展的三個趨勢。智能感知已經不似傳統的圖像傳感。傳統的圖像傳感技術很大程度依靠手機開發出來,因為手機原來圖像傳感器用得非常多。現在智能傳感器被廣泛應用在汽車、機器視覺、邊緣人工智能這三個領域,很多新技術是先被開發出來,后被運用到手機里。較之汽車、機器視覺和邊緣人工智能有很大的不同:一是像素,現在很多手機廠商都在宣傳自己的像素級別,如2000萬像素、1600萬像素,但是人眼僅能夠鑒別1600萬像素左右,再高對于人眼也沒有區別。但是智能傳感對于像素識別幾乎沒有邊界。一個很大的趨勢,隨著人工智能對像素分辨、理解和判斷能力需求的提升,圖像傳感器對于像素識別要求也越來越高。
   在這三個板塊中,全球世界500強的客戶,包括一些新型創新企業都是我們的客戶。我們的目標是“創造超越人眼的視覺”。當然現在有一些功能已經完全超過了,但這只是我們技術開發的開始。




   就汽車智能感知的應用而言,安森美半導體現在提供了寬廣的汽車傳感器陣容。2018年,安森美半導體占整個超聲波行業市場份額的60%。2017年我們收購了IBM海法研究小組(IBM Research Haifa Lab)在以色列的毫米波研發中心,現在我們可以提供毫米波雷達方案。2018年5月,我們收購了愛爾蘭 SensL Technologies公司,它的核心技術之一是SPAD(單一光電雪崩二極管),該產品具有非常高的感光效應,具有上百萬、上億的感光倍數。因此,現在我們是全球唯一一家擁有所有感知技術的公司,打破了行業間的壁壘。傳統的公司發展會主攻某個領域,比如研發毫米波雷達的公司就專注于將毫米波雷達的能力發揮到極致,研究激光雷達的公司則思考如何將激光雷達的能力發揮到極致。我們的戰略布局是如何提升綜合能力,達到綜合能力的極致,以寬廣的產品陣容滿足客戶全方位的需求,而不是滿足于在某一個領域做到極致。這是我們的戰略布局,也是我們未來的一個優勢。

   圖像傳感器是整個半導體行業復雜程度最高的技術。電腦里的CPU(中央處理器)由電子部件組成。但圖像傳感技術則要將光子和電子二者結合,把光轉換成電,再把電轉換成光,這里面包含了很多前沿技術。大家可以看到這里面復雜的結構,這上面是一個微凸鏡,這是彩色濾光片(Color Filter),上面這些元件是和光有關的,下面是和電有關的元件。光轉換成電以后,通過數字線路和模擬線路進行傳輸。現在我們已經可以做到兩個芯片堆棧,并已經在批量生產。下面會做三個芯片堆棧的量產,以后還可以把一些處理器和存儲器都直接加載到圖像傳感器里面。

   寬動態最早是滿足汽車應用的需求,現在寬動態已經不光局限在汽車應用上,還延伸至邊緣人工智能和工業領域。簡單來說,寬動態是指一個圖片上亮和暗的比差。用手機從室內拍攝窗外的時候,一般室外景物拍攝清晰時但室內拍攝效果卻是一片漆黑,若保證室內清晰窗外效果就一片空白,原因就是手機的寬動態不夠。
這是去年推出的一個產品,客戶使用我們安森美半導體和競品在北美非常著名的一個隧道做寬動態測試,看誰的性能更好。右邊的圖片基本上能夠看到隧道外面的車、行人和隧道墻壁的細節,而左邊圖片上隧道外面則一片空白,甚至連隧道墻上的細節都已經模糊。人眼可以識別這是隧道,但機器視覺卻無法識別。這是寬動態的一個應用。




   第二個應用是夜間行車,特別是遇到相向而行的車開啟大燈的時候。在寬動態102dB的情況下,可以看到路邊行人的輪廓,那人工智能就可以判別左邊有行人。但如果寬動態在90dB或80dB,人工智能算法就沒有辦法判斷這是人,甚至看不到左邊這個實體的存在。所以,寬動態汽車在應用中非常重要。

   現在汽車智能感知元器件越來越多。目前啟用啟動駕駛的車輛擁有9個圖像傳感器,而下一代正在開發的圖像傳感器已經超過12個,還有接近20個正處于研發階段。同時還配備有10個雷達,至少2個超聲波,將來也會配置至少1個激光雷達。所以,現在汽車的感知能力已經比駕駛員更強。駕駛員的視線范圍一般只能覆蓋前方180度,加上余光,可能超過200度,而汽車智能具有360度感知能力。另外,駕駛員可能會有幾毫秒的精力分散情況,而智能感知可以全時候地跟蹤、檢測和計算。感知技術搭配人工智能,未來自動駕駛和智能駕駛一定會比人類更可靠、更安全,只是現階段技術還尚未成熟。

這是汽車圖像傳感器在整個市場的應用:
   1. 先進駕駛輔助系統ADAS的很多的功能大家很熟悉;
   2. 車艙內攝像機,這是下一代智能汽車應用中發展非??燜俚囊桓鲇τ?。2016年,一輛配有Autopilot的特斯拉Model S在佛羅里達州發生車禍,駕駛員死亡。經調查,這起事故的發生原因是該名特斯司機過度依賴Autopilot系統。在兩個半小時的駕駛過程中,這名駕駛員手扶了駕駛盤不到五分鐘,即使車子多次給與他警告,他已然放任不管。接下來,在車內安裝Driver Monitoring System(駕駛員監控系統)是整個無人駕駛行業的趨勢,包括CAR  DVR(行車記錄儀),現在安裝的很多行車記錄儀就需要運用到圖像傳感器。
   3. 視覺攝像機和攝像機監控系統(CMS),一些大型卡車已經開始應用該系統來取代車鏡。由于歐洲市場法規規定,汽車一定要配備后視鏡。但是卡車后視鏡面積很大,造成較大的擋風阻力,有了CMS攝像頭之后,卡車的后視鏡就可以被改小。根據計算,使用后視鏡替代能夠節省5-10%的能源。
   4. 自動駕駛。
   在汽車行業,汽車品牌對圖像傳感非常重視。圖像傳感器在半導體行業平均成長率為2-3%,這是整個半導體行業發展過程中的一個亮點。

   根據第三方市場調研公司的數據,這是我們智能感知部門在汽車視覺(Viewing)和感知攝像機(Sensing)兩個塊的市場份額情況。2016年,Viewing和Sensing兩者加起來占總體50%市場份額。如果只看機器視覺(即感知攝像機),我們市場份額占比超過了60%。2018年,Viewing和Sensing占總體市場份額62%,如果只看機器視覺(ADAS+自動駕駛)已經超過80%的市場份額,比所有競爭對手市場份額的加和還要大。
   這個數據也暗含了很多重要信息。例如,我們做投資選擇一家公司會要看幾個指標。第一,市場份額,看否是該行業市場的龍頭老大;第二,市場成長率,在現有的市場份額基礎上,公司是否能夠繼續增長和擴大。這是整個公司的布局和技術上的投資,以及對這個行業重視的結果。

安森美半導體在汽車應用的主要優勢:
   一、安森美半導體提供汽車感知(Sensing)和視覺(Viewing)總體的解決方案。
   在整個行業內,我們提供最完整的系列產品,產品的性能和功能都處于行業領先,比如滿足各個級別的像素需求(130萬像素至1200萬像素等),高端攝影機里面的寬動態技術如今也被應用到汽車領域。
   投入時間久。安森美半導體是一家專業的汽車半導體公司,很多競爭對手是從專業消費電子轉入到汽車,我們從摩托羅拉半導體就開始了投入到汽車領域的研究,現有的一些產品已經賣了三、四十年之久。到目前為止,已經有超過4億個汽車攝像機使用安森美半導體的圖像傳感器在路上跑,而且我們的產品質量也是有口皆碑的。
半導體在汽車應用中除了性能之外,功能安全也至關重要。自動駕駛不光要可靠,更要可信。當你開啟自動駕駛車,坐在里面的時候,要讓你感覺自在,要讓你相信這部車的自動駕駛能力。要做到可信,就要從最底層的元件做起。
   網絡安全現在越來越重要。對于汽車自動駕駛,如果有黑客可以控制汽車自動駕駛系統,或者在系統上做一些手腳,就會造成極大的危害。所以,網絡安全對汽車而言越來越重要。安森美半導體是全球第一個把網絡安全的功能加到圖像傳感器中的半導體公司,目前產品已經處于量產階段。
安森美半導體的核心技術Clarity+能夠把Viewing和Sensing技術結合。現在市場上人工視覺使用一個相機,機器視覺使用另外一個相機。而一個使用安森美半導體的相機既能做到機器視覺信號又能提供人工視覺信號,這是系統集成的一項技術。

二、汽車生態系統合作伙伴
   在目前,建立汽車生態系統合作伙伴關系非常重要。我們公司有專門的團隊開發生態系統合作伙伴,與圖像傳感器,或者是激光雷達有關系的友商、供應商,都會開展深入的合作,建立合作生態系統。該系統分為三個層面:第一個層面是保證在產品上能夠對接,即我們的新開發的產品能夠和合作伙伴的新產品可以對接;第二個層面是在產品線路圖上能夠對接,即我們新產品的線路圖能夠與友商的下一代新產品的線路圖對接上;最深層次的就是產品的概念上的契合,即在產品定義之前就跟友商、合作伙伴一起研究如何對新一代產品作優化。

三、全面的汽車智能感知陣容
   應用于汽車的另外一個技術是近紅外+(NIR+)像素技術。該技術原來在安防領域最先開發,而后應用到汽車領域。汽車在夜間行駛的時對近紅外的要求非常高。我們現在開發的產品的近紅外頻段在大約850納米至940納米之間,增加了約4倍的近紅外靈敏度。感光度提高有2個好處:第一,如果感光度低,低照度就不好,捕捉信號的效果就不完整;第二,如果感光度低,可能要用LED來補光,大功率的LED會產生非常大的功耗,如果近紅外靈敏度提高,首先可以省電,再者可確保信號捕捉的全面,提升信號清晰度。這項技術在汽車應用上也越來越廣泛。


   另外一個應用是LFM(LED Flicker Mitigation)技術,即LED防抖技術。因為LED在閃爍的時候,頻率都不一樣,幾乎沒有一個業界標準。比如,紅綠燈,如果攝像機的頻率和紅綠燈的頻率不吻合就捕捉不到信號。所以,在汽車LFM對整車廠而言是非常大的挑戰。我們目前的技術可以在獲取信號后從軟件分析延遲(Latency)和功耗,從傳感器硬件上直接解決問題。
   現在整個圖像傳感器有兩個不同的技術:一個叫做卷簾式快門,一個是全局快門。全局快門就是一次性即時捕捉所有的信號。卷簾式是一行一行的掃描,從第一行到最后一行,中間會有時差,所以當拍攝高速運轉情況下的物體時,圖像就會顯示變形了。但如果采用全局快門,拍攝出的效果非常清晰。七、八年之前,我們在工業掃描行業擁有超過60%的市場占有率,就是因為這項技術。這項技術目前已經發展至第八代。和競爭對手相比,我們至少超過他們的兩代技術。之后該技術也會應用到汽車上,特別是在駕駛員疲勞監控方面。



這是我們在汽車領域全方位的智能感知陣容。在視覺和感知的應用方面,我們有100萬、200萬、300萬、400萬像素的SOC,我們的競爭對手沒有一家有這樣完整的系列。
   在ADAS(先進駕駛輔助系統)和自動駕駛方面,我們也開發了一系列產品。例如,我們寬動態技術能夠達到140dB,目前半導體行業最多的是120dB。20分貝的差距對客戶來講,特別對人工智能的算法來講是相當大的差距,甚至關乎能否識別差距。在比如我們的100萬、200萬到800萬的像素微光機,其感光效果非常好,目前市場的L4自動駕駛基本上就是使用800萬像素這一款產品。
   艙內應用,如駕駛員監控系統(Driver Monitoring System)成長速度非???,我們幾乎全系列的,現在用到最高200萬像素,因為太高了,中央處理器沒有那么大的能力去處理。
   邊緣計算方面,我們把傳感器的處理單元稱為SPU(Sensor Processing Unit),我們的產品現在可以支持100萬、200萬、300萬像素的處理。
   再加上我們的毫米波雷達和激光雷達,我后面會介紹。


   現在汽車應用的發展主要在這三個方向:一是車外的人工視覺,包括環視、后視,這是供人看的;二是車外的機器視覺,包括ADAS、自動駕駛。三是艙內監控,除了傳統的駕駛員疲勞監控,現在除了疲勞監控之外,還有疾病檢測、情緒/生理檢測,安全氣囊精準調整、人機互動(Human Machine Interaction)、虹膜識別(Iris Detection)和人臉識別等。人機互動,包括手勢識別功能,如調整艙內溫度、聽廣播、打電話等都可以用手勢來操作。除了對駕駛員的監控,還有對乘員的監控,比如robot taxi(機器人出租車)的很多的功能都需要艙內監控,包括安全帶提醒、兒童在場檢測、物體檢測和寵物檢測等。這都是未來自動駕駛都要涉及到的一些應用。





   共享乘車是未來汽車發展的趨勢,特別是自動駕駛領域。我們家中的車,一般平均每天開1-2兩小時,多數時間停放在家中或者公司的停車場,95%的時間處于閑置狀態,汽車的使用壽命在8000個小時左右。未來的趨勢是共享車,尤其在robot tai領域,未來的汽車幾乎24小時都會行駛在路上,90%的時間處于使用狀態。這樣的強度在以前車的設計和開發中是沒有計劃到的。再者,車輛由于是大家共享的,很多的功能和要求和私家車會不同。安森美半導體在幾年前就開始這方面的布局,我們現在產品設計都是按照這樣的要求來設計的,包括我們的質量檢控、產品評估。
   自動駕駛另外一個需要保障的是功能安全,功能安全就是要做到可信。整個自動駕駛系統,現在故障率單位標準是100FIT(Failure in Time)。對于子系統可以允許故障率單位標準是10FIT,對傳感器就是1FIT,這是非常高的要求。要實現這樣的要求,一是通過工程判斷,做一些分析模擬來避免這些風險,判斷它是否會有一些高風險,以及什么樣的風險。這是從工程分析,它的風險非常高,可靠性不高。二是通過路上測試,現在很多自動駕駛汽車,在各個國家,包括國內北京、上海、深圳、廣州,都發了路測執照。但路測再久也不能保證100%萬無一失,總有遇到特殊情況或者極端情況。這不光是我們,所有的半導體公司都會遇到這樣的特殊情況,當圖像出現問題,人工智能就無法識別,或者能夠識別也會花很長時間,造成延遲。我們在很多年前跟歐洲整車廠開始做功能安全時,采取的方法是把所有故障全部分析出來,再把這些故障注入到芯片,讓它產生這些故障,以鑒別芯片的可信度。目前我們已經做到大概超過8000個失效模式,每一款產品8000個模式都要輸入進去,看它的反饋。我們還專門開發了一個安全手冊(Safety Manuel),客戶在使用我們產品時,客戶根據這個手冊來設計它的系統,滿足系統功能的安全要求。所以,這是我們跟競爭對手不太一樣的地方。網絡安全是大家關注的問題。網絡安全跟圖像傳感器也是有關系的,而且涉及非常大的潛在風險。安森美半導體會把生產的芯片交給全球知名的一家反黑客公司,去讓他們做入侵測試。僅僅一禮拜的時間內,他們就找到了十幾種入侵方法。關于網絡安全的國際標準,到今年年底就會出來。
   例如,左邊這張圖像是黑客將過去的一張沒有車的圖像重新使用,對現實路況進行篡改,人可以辨別真假,但是人工智能卻沒辦法識別實際上前面有一輛車。這是簡單的例子。我們公司跟客戶在幾年前已經在研究此類狀況,去年年底我們有一款800萬像素的圖像傳感器,就具有這樣的網絡安全功能,現在在很多自動駕駛領域得以應用。

   下面簡單介紹一下我們目前自動駕駛毫米波雷達的進展。這一款產品現在已經處于客戶評估階段。它的優勢是可以降低整個系統的成本,目前市場需要4個發射器,而我們只需要2個就能達到同樣效果。隨著L2、L3、L4和全自動駕駛的需求增長,以后的長距、中距和短距的毫米波雷達隨著它的成本降低需求量越來越多,在汽車上的應用也會越來越多。

   這是我們激光雷達的例子,我們收購的這家激光雷達的公司,本身已有十幾年的歷史了,原來它在醫療設備雷達這塊市場占有率最高。我們收購以后,將激光雷達技術轉入到汽車應用。我們這款產品是目前市場上第一款達到車規的激光雷達。而且這款產品使固態雷達成為現實。現在一個激光雷達基本需要上萬美金,我們這款產品將成本降到幾百美金,因為它不需要機械式的雷達掃描,完全可以使用閃光的方式。


   工業機器視覺和邊緣人工智能的應用非常廣泛。近幾年隨著人工智能的開發,工業機器視覺和邊緣人工智能越來越受到業界重視。除了傳統工廠自動化、智能化工廠的發展,機器視覺還在智能交通、新零售、智能樓宇/家居、機器人(無人機、服務機器人、工業用機器人、送貨機器人、合作機器人)等領域不斷發展。目前,安森美半導體,憑借全方位的產品陣容,成為工業機器視覺的領袖。





   在汽車領域中也是一樣,安森美半導體為客戶提供全方位的產品服務。我們既有CMOS圖像傳感器,又有CCD圖像傳感器,可達到上千萬的VGA(Video Graphics Array,視頻圖像分辨率)。比如,我們在兩年前的上?;魘泳跽雇瞥鯬YTHON系列,轟動業界,國內廠家紛紛使用這款產品。今年我們推出X系列,在PYTHON系列的基礎上又進一步提升了性能。

   XGS傳感器系列采用3.2微米全局快門CMOS設計,降低了設計尺寸。它的性能非常好,包括高寬動態,低功耗架構、低噪聲。同時,安森美半導體擁有全系列像素的傳感器產品,客戶的一個攝像機可以支持多種分辨率。
如果大家對工業相機了解的話,29x29mm是工業上使用的標準相機尺寸。現在的一個困境是,因為相機尺寸是標準固定尺寸,但是如果對相機更新換代,更換到更高像素,操作就非常難。一般講像素大、芯片就大,29x29mm 的 尺寸就太小。XGS傳感器系列采用緊湊占位,在同樣29x29mm尺寸內像素點就會提高,現在PYTHON系列可以達到1200萬像素,XGS系列可以達到1600萬像素。目前,1200萬、800萬像素的傳感器都已經在量產。

   在機器視覺領域,業界規模最大的兩家就是我們安森美半導體和索尼。除了客戶市場反饋的較高性價比,我們PYTHON系列是目前市場上唯一一家在29×29mm設計尺寸內做到1600萬像素的產品。我們的產品不僅尺寸小,速度幀率也非常高,信價比也高。從產品范圍來看,我們從低端、中端一直到高端皆有產品系列,并且有很好的應用支持。

   XGS 45000系列,畫面像素非常高,功耗低,3瓦的功耗對高端相機來說已經非常低了??梢災С?K的視頻,可以用在攝像機、專業攝像機身上,每秒60幀。不僅可以用到機器視覺,還可以應運用到高端安防,從遠處也可以人臉識別。這是我們競爭對手在工業上的應用的效果,它的監控面積很窄,這是因為每秒鐘所能傳輸的像素大小不同會影響最終效果。如果用2000萬像素,這個線路板只能看到其中一部分,使用我們4500萬的系列就能看到線路板的全貌,不需要多次曝光、多次采樣,不需要兩個攝像頭,一個攝像頭一次曝光、一次采樣就能完成,而且看得非常清晰。這里面所有的信息,包括Barcode信息都可以看得非常清楚,這給人工智能后端處理提供了很好的條件。

KAI-50140 CCD圖像傳感器  
   這是一款5000萬像素的CCD圖像傳感器。CCD傳統優勢就是圖像質量非常高,應用于高端相機,但成本也高。現在很典型的應用例子就是4K平板檢測。4K平板檢測現在已經從LED過渡到OLED,OLED和LED最大的區別是LED有背光源,而OLED是每個像素本身帶一個光源。由于每個光源的均勻度是不一樣的,給檢測帶來了挑戰。要保證在檢測的時候能夠看得非常清楚,將LED光源的不均勻度分辨出來,現在只有CCD圖像傳感器能夠做到 。
   目前AI技術、5G、IoT(物聯網)不斷發展,云端、物端、邊緣計算也應運而生。云端計算速度非常高,感知、識別或判斷、決策、行動,這四個步驟都在會云端得以處理,但它的問題是大量數據送到云端成本非常高,延時性也不好。節點就是物端。邊緣設備基本上有兩種,一是處理密集型,有些設備像機器人的電池儲電量非常高,因為要保證機器人的行走、運動,所以對傳感器智能和功耗要求并不高,它需要終端有更高的處理能力。另外一種是IoT的,這些設備有時會放在一個地方一兩年,因此對耗電量的要求非常高,同時對靈活使用性要求也非常高的,因為常常需要的時候才叫醒它,不需要24小時運轉。



   AR0430、AR0431就是為IoT設計的。它的最大的一個特點是低功耗,在一幀的時候只有8毫安,而且其幀數可以調節,可在1幀至120幀調節。典型的應用是家中的監控相機,沒有人在家里,相機就不需要費電,一旦人走動就會觸動它開啟。這個是我們正在開發的一款產品,還尚未發布。該產品類似全局快門,實際上它是卷簾式快門,但功能相當于全局快門。速率非常高,每秒250幀左右,具有成本優勢,因為卷簾式快門成本較低,全局快門成本較高。其次是功耗低,現在在1幀的情況下少于2.5毫安。而且它有運動檢測,可以自動喚醒。在沒有人的時候,它處于休息狀態,一旦有人運動,它便可以快速自動喚醒,立即進入照相功能。另外,還使用到 NIR+技術,來保證有效的夜間成像。最后,芯片尺寸非常小,幾乎可以隱藏起來。

   隨著人工智能的發展,智能機器人需要具有空間感,不能只是平面上的感知,還要感覺到這個人在什么位置,離我多遠。目前深度映射技術有五種方法:立體視覺、結構光、飛行時間、Super Depth和雷達。我們的技術就是只需要一個攝像頭,一個芯片,在不需要任何補光的前提下,就可以同時提供彩色圖像和深度圖像。這個客戶評估下來,效果非常好。對于服務機器人、家用機器人感知周圍的深度是非常合適的。

激光雷達
   這是我們的激光雷達,是今年剛剛推出的一個產品,叫做Pandion,是矩陣型的。固態光源Flash可以感知三米內的深度,掃描式的波速控制 (Beam Steering),則可以感知到100米左右的深度。因為它采用了矩陣型感光點,形成400×100的矩陣。區別于傳統的點云(point cloud),我們的激光雷達已經形成了圖像了。0.1的lux(勒克斯,照明單位)的環境光肉眼幾乎已經看不到,但是通過我們Super  DepthTM技術就可以看到。安森美半導體收購這一家公司有一個很重要的原因,激光雷達傳感器實際上相當于圖像傳感器30年以前的技術,但是我們這么多年開發出來的圖像傳感技術未來完全可以融合到激光雷達的開發上。所以,這是我們走的第一步,把激光雷達矩陣化,變成圖像,以后我們提到的可能就不是LiDAR point cloud,而是LiDAR image。

   這是一個和人工智能有關的應用。剛才講了深度感知,這個實例展示了門禁、閘口人臉識別怎么防偽。國內的一家客戶給我們提出了這樣要求,我們做了這樣一個開發嘗試。我們用相機同時提供彩色圖像和深度圖像,2D相片識別后出來效果沒有深度的數據,是平面的。所以,我們通過CNN(卷積神經網絡)深度學習把感知的可靠性提高了。

總結一下:
   第一,安森美半導體是2016年至2019年連續四年獲選“世界最職業道德企業”。
   第二,在至關重要的應用領域成像方案,安森美半導體是市場領袖。比如汽車自動駕駛、工業機器視覺、邊緣人工智能等。
   第三,安森美半導體是全球唯一一家提供全方位智能感知功方案的供應商,包括超聲波、成像、毫米波雷達、激光雷達和傳感器融合。
   第四,我們公司之所以能夠走在行業的前端以技術領先,最重要的一點是我們悠久的創新傳統和持續投入。
   第五,中國市場對我們非常重要,我們在國內有三個制造廠,幾百個技術支持和銷售團隊,匯集了來自各個高校畢業的人才。


媒體問答環節
   問:剛才您講到圖像傳感器的像素越來越高,動態范圍越來越寬,數據量越來越大。在數據傳輸和處理方面會不會有更大的挑戰?安森美半導體只是做SP邊緣計算方面,其他的這么多數據處理和傳統挑戰怎么解決呢?是和友商合作嗎?
   易繼輝:目前傳感器還不能實現數據的直接處理。但是我們正在和客戶和友商探討如何實現更智能化的傳感。比如自動駕駛中,樹、房子、路燈等信息是不重要的,但是關于其他車輛、行人的信息是至關重要的。在信號處理時就對一些數據作處理,或者在信息采集階段,傳感器里就能鑒別出哪些信息是重要的,這是我們努力的方向。
   問:毫米波雷達和激光雷達在自動駕駛領域有各自的優缺點,您怎么看待這兩個產品的應用前景和發展趨勢?安森美半導體在這兩個產品的布局是怎樣的?
   易繼輝:特斯拉的CEO埃隆?馬斯克在上個月的產品發布會上,就把激光雷達貶低得一塌糊涂。目前,業界對激光雷達討論得熱火朝天。因為埃隆?馬斯克堅信圖像,他說特斯拉只需要用圖像,就可以實現全天候自動駕駛。
   但每一家看法不同。未來自動駕駛可能是多傳感器的融合。第一,如果真正要實現自動駕駛,一定要保證全天候。現在霧天,大霧天,下雨天的圖像識別效果是平的,這種天氣即使肉眼都看不清楚。第二,自動駕駛有一個非常重要的指標——安全性能,要求是雙保險。如果圖像相機出現問題,另外一種傳感器可以提供信息,讓你做出判斷。所以“雙保險”非常重要,需要有多種傳感器的支持。
   激光雷達用光(雖然不是可見光),所以它和圖像傳感器一樣有類型的缺陷,比如霧天的識別效果不好。毫米波雷達雖然對金屬很敏感,但是霧天、雨天時的穿透力很好。同時,毫米波雷達能偵測感知到移動物體的速度,激光雷達和圖像識別感知不到速度,只能看見東西。所以,每個傳感器在整個智能化設備中都有它的獨特的作用。所以,我們認為傳感器融合是個趨勢。
   目前傳感器都有行業壁壘:做毫米波雷達就要把毫米波雷達做到把極致最大化,不用管別的東西。做激光雷達的公司也是這樣,想要取代所有的傳感器。圖像也是如此,普林斯頓的一個中國教授Professor  X非常有名,他有個公司叫做Auto X。他就百分之百認為圖像傳感器可以取代其他所有傳感器。但是,舉個簡單的例子,在高速彎道上行駛的時候,毫米波雷達不知道你要拐彎,不知道前面是彎道,因為雷達只是一個方向,車往什么方向走,它只能朝著這個方向走。但是攝像頭可以識別前面需要拐彎了,就可以內部通知毫米波雷達做一些轉向,你就可以實時地讓毫米波雷達和激光雷達都要按照你想要走的路線行駛。
   另外一個例子,還有要捕捉在很遠地方的某一個物體,用毫米波雷達獲取的信號量不大。但是你可以用圖像傳感器,截取移動物體的部分圖像,這對汽車來說非常重要。所以,傳感器融合非常重要。但如果有行業壁壘,兩家公司因為競爭關系拒絕溝通。所以,安森美半導體的優勢是把所有傳感器的功能融合起來,實現結果是最大化,并進行創新。這是行業隔閡情況下,達不到的運作模式。
   問:您好,關于您講到的網絡功能安全會對8000種失效模式進行試錯。除了試錯檢測,在產品本身的技術上有哪些實現網絡安全的?對于自動駕駛來講,這8000種模式是不是不夠全?
   易繼輝:8000種模式是圖像傳感器本身的線路失效可能出現的問題,包括短路、信號削弱,和路況沒有任何關系。在所有這么復雜的節點中,每個節點我們都要去偵測。所以,8000種失效模式是圖像傳感器本身的失效模式,和自動駕駛和路況沒有關系。主要是起到保證功能安全的作用,所謂功能安全就是這個元器件是否它的線路可自檢以提供完整、準確的信息。所以,8000種能否都覆蓋,目前我們是從幾百、幾千,現在一直開發到8000,還在不斷做,還有新模式我們都會加進去。
   問:技術本身上怎么失效檢測呢?
   易繼輝:整個產品從零開始設計起來的,因為線路本身需要有自檢功能,線路設計跟傳統圖像傳感器是完全不同。所以,有些競爭對手說自己的傳感器及其他半導體產品也能滿足功能安全,但是需要后端系統和軟件來彌補。有一個詞“COOE”,意思是產品本身帶自檢,不需要外面軟件的輔助,即能滿足到功能安全的要求。我們產品就能夠達到這種能力。
   問:剛才您提到歐洲的卡車上把后視鏡改小了,您說它之前沒改的時候,由于面積大,可能會占用油耗或功耗的5-10%,這個數據可以確認一下?
   易繼輝:這個到網上一查就可以知道,這是公開數據。
   問:現在通過這種圖像傳感器簡化成幾個或者是兩個?
   易繼輝:現在是一個,而且很小,以前都是長的,只是象征性的一個后視鏡。因為歐洲法規規定一定要有后視鏡,但沒有說后視鏡要多大,所以將其改小了。然后在駕駛室里設置了一個很大的屏幕,所以可以通過駕駛室的屏幕看在后面的路況。
   問:公共交通呢?
   易繼輝:因為公共交通的速度不高,所以目前來講還沒有這種需求。
   問:關于工業方面,像富士康對外說他們有七座關燈工廠,晚上不用開燈,關燈工廠對圖像傳感有什么樣的要求?
   易繼輝:所謂的關燈工廠是照明燈,但在某些固定工位有局部燈,比如質量檢測。所以它會保證自動化要求,有一些局部的燈。
   問:在工業市場,圖像傳感器未來發展趨勢以及技術、市場方面有沒有一個大概的信息能夠透露一下?
   易繼輝:基本上有幾個趨勢:第一,從性能來看,對圖像傳感器的像素的要求在提高,包括剛才講到的29×29mm的工業標準相機。所以提高像素是一個趨勢,特別是產品精度值。
   第二,從效率來講,生產線,特別是組裝線、流水線的操作速度非???,分給每個工位的時間零點幾秒,如果用兩個相機來采集圖像,整個生產線的速度會下降。如果像素大,一次圖像傳感就能夠把整個拍攝下來,提高整個生產線的速度。
   第三,全局快門。像一些裝瓶、藥廠的流水線移動非???,要及時把里面的標簽和成分信息捕捉下來,這個要求一定要用全局快門技術。
   在全球來講市場成長基本是10-15%,這已經算很不錯,一般GDP都在5-6%、2-3%。在中國,基本上是在20%以上,國內現在人力成本也高了,大家都把更新換代、技術含量提高、質量提高,對工廠自動化、智能化工廠的要求非常大,在國內發展速度超越過了國際上的平均速度。
   問:請問,今年Q1汽車業務占到34%,跟去年相比是增長還是降低了?中國車市今年發展不太景氣,前天剛公布了4月的數據,一直在跌,更是突破新低,您這方面的業務受到影響了嗎?未來怎樣布局?
   易繼輝:我們的汽車的業務發展基本比較平穩,當然有一些波動,基本維持在都在30-35%之間的占比。
平穩的原因,第一是因為我們在整個市場的布局非常久,覆蓋面非常廣,大客戶、小客戶都有。另一方面,我們公司一直以來以行業平均增長速率的兩倍增長來要求自己,你去看我們的財務報表,每一年都是行業平均增長速率的兩倍。為什么能夠以這樣的速度成長,是我們在市場、產品和應用布局與選擇的原因。
   目前,汽車行業不光是國內,美國、歐洲都在跌。對我們會有影響,但我們還在維持正增長,主要原因是汽車智能化在提高,相機等電子設備配有率都在提高。
   第三,我們公司的電源部門,在新能源汽車上中電、高電、低電都有很多產品。我看過一篇報道,去年國內整個行業銷售量在降低,但是電動車、新能源車依舊在增長。所以,要以超過行業兩倍速度增長,就得在每個細分領域去下工夫。
   所以,今年我們對業績還是看好。
   問:第一,關于LiDAR技術,你們是固體的嗎?成本是多少?
   易繼輝:我們半導體的是固體的,但我們只做中間的傳感器,不是發射器,是接收器,跟我們的圖像傳感器一樣,用來接受信號。
   問:您提到上海那家公司是怎么回事?
   易繼輝:你們可以去了解下上海那家公司,他的三個創始人都是從清華本科畢業,再到美國高校讀研究生,在美國硅谷工作多年,現在回來開公司,專攻激光雷達技術,做的非常好,現在幾乎全球所有的自動駕駛車都在評估他們。我們跟他們合作有幾個方向,他們是業界第一家將激光雷達和圖像傳感融合的企業,現在他們是百度阿波羅的供應商。他們提供RGB圖像和深度的輸出,能夠同時提供點云和圖像。
   優勢:第一,我們用的SPAD技術,傳統的激光雷達是用APD。APD的感光率普遍較低,基本上一個光子回來的感光就是一個光子的感光。而我們的SPAD是一個光子回來會有超過百萬甚至上億倍數的增益,所以感光的效果非常好。
   第二,傳統激光雷達感光器使用的是特殊材料,而非硅片,所以成本非常高。我們在硅技術上開發了十幾年,現在已經非常成熟,所以我們的成本非常低。因為我們有高增益,對激光發射源的功率要求不高。所以,我們的芯片能夠使激光雷達的系統成本降低。剛才我講的機械式的激光雷達成本需要上萬美金,而使用我們的芯片的雷達大概只有幾百美金,我們的目標是把激光雷達商品化、大眾化。
   問:Super  DepthTM測深度的技術,是如何做到的?
   易繼輝:有一個詞叫做PDAF (Phase Detection Auto Focus,相位檢測自動對焦),目前在智能手機上使用。這個技術最早是我們開發出來,現在我們將這個技術運用到Super  DepthTM。技術的核心是通過兩個相機鏡頭之間的距離差產生相差,用軟件把距離計算出來。我們是通過兩個像素之間的相差來捕捉深度信息,所以它不需要補光,也不需要兩個鏡頭,僅需一個攝像頭,但里面要做一些工藝的改變,這個工藝是我們自主研發的。
   問:它的安全程度能夠達到結構光的樣子嗎?
   易繼輝:沒有任何問題。你說的安全程度是說可靠性?
   問:比如是否可以用在人臉識別上?
   易繼輝:人臉識別是可以的。但結構光的精度非常高,因為里面的點云大概是15000點。我們的技術是沒有點的,所以精度是在5%,如果是工業使用,就完全足夠了,手機上支付可能不行,但是開機解鎖是沒問題的。
   問:硬件LED防閃爍是怎么做到的?
   易繼輝:那個比較復雜。
   問:硬件方面還是軟件方面?
   易繼輝:硬件,需要對傳感器進行設計。
   問:美國交通部的數據表示將來95%閑置車會被投入使用,對于這點我表示懷疑。比如,在中國,大家用車時間比較集中,一般在小長假或上下班。假設即使做到了,如果能保證了汽車95%的使用率,那么就不需要生產那么多的汽車了,這對整個汽車工業是一個沉重的打擊。
   易繼輝:清華大學的汽車工程學院院長李克強教授,以及一汽原來的李駿院士在公開場合都曾經提過,中國未來的趨勢就是共享汽車,而且美國調研公司對全球市場上消費者的對共享汽車的接受程度進行了調研。結果出乎意料,歐美消費者接受程度非常低,而中國消費者的接受程度非常高。歐美對汽車有情節,一輛汽車具有一定的象征意義。而中國消費者,尤其是很多年輕人,覺得就是汽車就是為了出行,從A點到B點,但金錢允許的條件下,他們會選擇擁有一輛車。目前上海已經有好幾家共享車服務。我去問過上海張江對一些白領進行過調研,他們選擇共享車的理由是一個價錢便宜,二是市內停車沒問題,因為共享車有固定的停車點。所以,國內有其特殊情況。按照李駿院士和李克強教授的預測,中國的共享車發展會走在全球前面,不是說95%的車上路,而是一輛車的95%的時間都在跑。國內消費者上下班選擇坐地鐵,周末可能會開一下,汽車可能95%的時間是處于停的狀態。共享車屬于商用車,從A點到B點,B點到C點,一直在運行。
   問:易總,我發表一下對剛才問題的看法,其實您說的共享汽車,雖然教授都認為未來有前景,但我們看看共享單車就知道未來的結局。因為共享不是獨有,很多共享單車都被“肢解”了。所以,我個人還是挺悲觀的。  
   易繼輝:“Robotaxi”機器人出租車。美國的Uber、Lyft,現在正在大力開發自動駕駛。按照美國標準,一輛出租車跑一英里需要成本3.5元美金,有人駕駛時成本需要5元美金,共享車成本需要4元美金。但如果是自動駕駛的話成本在1美元以下。所以從商業模式來看,是注定要走這條路的。美國的亞利桑那州去年年底開始Robotaxi收費服務,并在固定區域開始試點。自動駕駛最開始發展應該在商業用車領域,暫時不會涉及私家車。當然,中國有自己獨特的情況。
   問:我覺得自動駕駛對中國都不太適用。昨天一位同事發了小視頻,在上海高架上這個車可以自動交替通行,這個在上??尚?,在北京絕對不可行。當時他問了一個問題,自動駕駛會怎么判斷這種不同地區不同規則的情況,這其實就也是無人駕駛的一個問題。
   易繼輝:但中國在雄安做了一件非常了不起的事情。在現有的基礎設施和人的習慣下可能比較難,但是在新城市,新規矩實行起來相對容易。在美國,當時福特有福特T型車,大家幾乎人手一車。后來出現的一個問題,怎樣把車開到65哩、70哩。這在當時非常困難。最后高速公路就這樣產生了,上了高速只能以高速行駛。現在國內無人駕駛高速公路也已經開始試點。無人駕駛不會從私家車開始,也不會在大城市開始,基本在新城市在商用車和特定路段先試運營起來,逐漸再擴展。這是一個趨勢。十年前,誰會想到手機能夠擁有這么多功能??萍擠⒄顧俁饒敲純?,再過十年二十年發展成什么樣子,很難預料到。
   問:下面我有兩個方面的問題請教您。一,您說2016年,市占率63%,到2018年的時候是81%,請問將近20%的增長是由哪些產品線帶動的呢?與你們的并購有關嗎?
   易繼輝:安森美半導體在2014年收購了兩家圖像傳感汽車部門,一個是Aptina (Aptina Imaging Corp.),原來隸屬于美光科技,最早是由美國航空航天局實驗室 (NASA)申請的專利。另外一家是Truesense (Truesense Imaging Inc.) ,原來是柯達圖像傳感器業務,由阿爾卡特朗訊貝爾實驗室申請的專利。這兩家合起來成為了我們這個部門的前身,我剛才講我們這個智能感知部有著悠久創新歷史,就是從美國航天宇航局和貝爾實驗室的專利開始的,現在有幾個技術高管都還是從那邊過來的。所以,安森美半導體進入圖像傳感器行業是通過并購,但是從2016到2018年不是通過并購,而是通過我們的產品和客戶服務的自然成長。  
   問:主要來自于哪些產品線?是傳統圖像的,還是后來的毫米波?
   易繼輝:都是圖像的,毫米波產品剛剛出來,激光雷達在市場還沒有開始應用,主要是圖像傳感。圖像傳感是剛才講的機器視覺,不是人工視覺。
   問:剛才您講到SPU是集成了CNN的功能,集成CNN功能對安森美半導體的算法有什么要求?你們是自己獨立完成還是和別人合作?
   易繼輝:目前來講,這塊我們的芯片是給客戶開發第三方算法預留出來的功能。但是在我們的芯片里,除了圖像處理之外還可以做一些人工智能的分析。這是目前的狀況。
   問:剛才你講到Super DepthTM技術時有點疑問,您說它是根據相鄰兩個像素之間的差異來做判斷的?這是否對它的使用環境有要求和限制?比如特別亮或者特別暗的環境,相互差異沒有那么明顯,它還能判斷出來嗎?
   易繼輝:跟光線沒有太大關系,只要能看得到、正常能感受到的東西,Super DepthTM技術就能感受出其中差異。我們的兩只眼睛就相當于兩個像素,眼睛有瞳孔和晶狀體,而我們是把這兩個眼睛做成一個晶體,只要光線進來,傳感器像素能夠感覺到光纖,從而能夠分析出像差。
   問:之前您講到這個產品最大化動態范圍是遠超出同類產品的,是通過哪種方式實現的?在汽車上應用的話,這樣會不會在圖像成像時間上長一點?
   易繼輝:獲取光線信號后,光轉換成電,光電的轉換是一個逐漸的過程,最后顯示為像素。像素有一個“深度植景”的現象,即景的深度越深,電核的存儲量越大,轉化為電信號后,相應感光度越高。好比一個桶,光線相當于雨水。下雨時,桶越深越大,積蓄的雨量則越多,類比光信號轉換成的電信號就越強。我們是在現有的桶旁邊又開了一個桶,一桶裝滿了以后,可以使用另外一個桶里。兩個桶感光,感光量就強了。簡單講起來是這么一個概念,但是是非常復雜的技術,因為都是關乎微米差別的制造工藝,如何把電流傳輸到下面的電容里面。
   問:剛才您說到圖像和雷達的問題,在惡劣的天氣下圖像識別不了。我和其他研究自動駕駛的行家討論時,他們談到惡劣天氣問題的時候,一般會強調V2X (Vehicle to Everything,車對外界的信息交換)的作用,從您的角度是覺得圖像加雷達可以完全單獨地解決自動駕駛的問題,還是說也是需要配合一下V2X 呢?這兩者之間的關系?
   易繼輝:現在行業發展有幾個趨勢:一是把汽車做到智能極致,把所有可能的傳感器、所有的氣侯天氣、所有的狀況全都能夠捕捉和判斷到,然后做出決策,這是以汽車為中心;二是車路融合,這個概念大概還有幾十年的發展要走,到目前為止沒有很好的技術能夠解決。即使最好的汽車傳感器能看的距離不超過250米,同時現在車廠要求,技術要可以辨別250米外的行人和車,但這就是最遠了。車路融合的優勢是,如果車路融合V2X車用通信后,遠一點都沒有問題,而且你能夠了解對方的意向。比如,如果前面的車輛要拐彎剎車,自動駕駛看到前面的車速降了,它準備做降速動作,通過V2X就可以通知后面的車要準備降速了,這些是感知不到的。將來這都是多種方式的融合,因為自動駕駛是非常復雜的情況,不可能把所有的極端情況 (corner case) 全部覆蓋,所以每個技術都有它的優勢,就看最后整車廠和整個行業用什么樣的。
   問:我有兩個問題。一是關于雷達,隨著自動駕駛包括AI,雷達發展速度確實很快,尤其在中國它的發展速度可能更快。剛才您也介紹了在雷達相關的技術和產品,但目前還是沒有相關產品嗎?
   易繼輝:現在還沒有量產,正在評估。
   問:您開篇的時候,說到安森美半導體在整個中國市場占有非常大的比重,那么安森美半導體在雷達領域未來布局有沒有詳細的計劃?
   易繼輝:這個雷達是毫米波還是激光雷達?
   問:可以兩者都涵蓋。
   易繼輝:我已經幾十年沒有居住在國內了,對國內的看法基本是以第三者來看,比較客觀一點。我負責的業務有25%在歐洲,25%在美國,50%在亞太。亞洲多數時候我在中國,所以我在客戶和市場方面可以做出較好的比較。中國這些年之所以發展那么快,最大的特點,一是很愿意接受新鮮的東西,特別是汽車行業,國內整車廠對新東西都是非常有熱情,想要嘗試。歐美整車廠非常保守,新東西過來,有驗證過嗎?誰用過了?用了多長時間?所以,國內一是對新鮮的東西非常愿意嘗試;二是發展速度非???。像國內整車,一個新車從設計到開發到最后上市恐怕只需要兩到三年,甚至更短,但國外要3到5年。所以,國內的技術更新換代比國外快得多。雖然我們全球都鋪開了業務,但是在新技術上,我們看到的國內動作非???,要比國外快得多。
   舉個例子,兩年前我們開發了一個非常新、非常高端的產品,國內已經量產了,而國外剛剛導入設計。這邊看到一個新東西,馬上拿過來。所以,這是中國的優勢,絕對的優勢。產品不一定要一次到位,可以五次,總比三次最后的結果要好。
   問:這個問題銜接到我第二個問題,剛才您說到安森美半導體是全球唯一一家覆蓋到所有的傳感器,這是產業發展的趨勢還是其他的原因?剛才您說原來沒有這樣的產品,而是通過一系列的并購完成的。我想問這是一種趨勢,還是一系列并購動作的巧合?
   易繼輝:剛才我講了安森美半導體的銷售額以業界平均增長率兩倍以上的增長,并持續了很多年。這些都不是隨機巧合的,都是有戰略、有部署,是一步步走出來的。因為技術上要領先,一定要有創新,所以,我們很多事情,包括剛才講的我們是世界第一家做出寬動態的。現在我們走的這條路也是行業內沒有嘗試過的。而且這些公司是我們花了很長時間去找到,包括LiDAR這家公司也是花了兩年時間跟他們接觸溝通,一開始他們根本就不想要賣,最后同意賣,這不是隨機的。我們覺得這個行業要真正走到創新,特別是自動駕駛,它的挑戰非常大。各行業單一的感知 (sensing) 來做是不會有太大的創新,我們要做的事情就是主動地把它們融合起來。
   問:是否意味著未來汽車的傳感器更多走向融合綜合的方案,我們未來也是更傾向于做傳感器系統提供商?比如剛才您提到的上海那家企業在激光雷達做得特別好,你們和他們也有這方面的合作,是否意味著未來細分領域,我們不一定是No.1,但我們可以通過新技術去做別的創新或者去開發產品,這是不是一點呢?
   易繼輝:你的意思是說,我們要做系統嗎?
   問:我的意思是說,您剛才說傳感器未來應該走向融合的發展趨勢,剛好我們覆蓋了所有傳感器的產品,在細分領域的發展上,另一方面,技術迭代更新比較快,我們的重點是不是更趨向于融合方向上,在細分上更多傾向于和別人的技術做合作,比如像剛才上海那家呢?
   易繼輝:肯定有合作,包括跟合作伙伴的合作,包括跟競爭對手的合作,因為很多情況下與競爭對手合作,是有這種需要的。合作是肯定的,但我們的定位還是在半導體、芯片,我們不會去賣系統的,這不是我們的強項,也不是我們要做的。
   我們要做的是提供系統解決方案,比如光一個芯片對客戶來講沒有用,但我們把整個方案做出來,客戶拿過去做成產品,這是我們要做的事情,提供解決方案。
   問:除了汽車行業特別需要傳感器不同技術的融合,在其他行業有沒有一些應用的前景?
   易繼輝:機器人。凡是要有環境感知的,比如機器人,國內包括工業用機器人和服務機器人采用的就是激光雷達攝像頭,當然是很低端的激光雷達,精度不是那么高,輻射距離不是那么遠。有些機器人已經在考慮毫米波雷達,因為它都是有優缺點的,根據它的應用場景,一定要三維感知,這個需要各種傳感器融合。
   問:易總,您在一開始提到安森美半導體在渠道收入這塊非常注重代理商,其他的半導體廠商看到的趨勢是在慢慢去掉代理商,更多的是做電商之類的,能否分享一下在這方面你們的發展路線和規劃,為什么與別的廠商不一樣?包括能否分享一下別的廠商為什么這么做?
   易繼輝:我不太清楚別的廠商為什么這么做。但是業界的基本情況是,代理經?;岵恢攬突撬?,經常不知道客戶在做什么產品。因為代理客戶都是上千上萬,可能只知道幾個大一點規模的客戶。這是一個缺點。
我們公司對代理來講,因為產品覆蓋范圍非常廣泛,可以應用到各個應用場景下,大批量小批量皆有。有些產品只需要小批量生產,但我們不可能總配置相應的技術服務人員都去管理這些客戶。所以,使用代理是合理的選擇。我們把代理作為公司核心戰略之一,用他們就要用到極致。以前的代理基本作用就是庫存,先支付錢,把你的東西先買掉,客戶要了再分過去。現在我們和代理已經做了很多年的一個模式叫做“Demand Creation”,即開發新的需求,而不只是對現有需求的維護。而且他們很愿意做這件事,因為Demand Creation模式下的利潤會高一點。如果只是做庫存,只能拿個利息,因為你出了錢消化了存貨。所以,這是雙方的都非常愿意的合作方式。
   還有一點,因為我們的芯片不是一個產品就能做出來的,我們的芯片需要其他的產品輔助,來共同完成最終的產品。我們很多代理是代理其他合作伙伴的產品,對他們來講,賣一個FPGA (Field-Programmable Gate Array,現場可編程門陣列),若再加一個傳感器,動作產值就會提高了。這對他們有益處,對我們來講也有益處。因為客戶需要整體方案,他有傳感器,也有了FPGA。這就看他們的優勢,就看各家公司怎么認可這些事情,以及根據各個公司的產品具體作選擇。
   問:請您介紹一下對嵌入式視覺市場的看法?因為相機廠商都在發展嵌入式視覺產品,您談一下針對這個市場,安森美半導體還哪些計劃?
   易繼輝:這是最近五六年、七八年開始的。主要滿足的是工業自動化需求,自動化業務場景越來越多。不光是工業,現在農業也有一些實現了自動化、無人化,比如蔬果的摘采。但是摘采設備后面不可能帶一個大計算機,裝一個中央處理器,所以它叫做嵌入式,這個像機里就有完整的計算功能。這是市場的需求,自動化的范圍也越來越廣,應用場景已經不是傳統的生產線??梢苑乓惶撲慊?,接上幾個攝像頭來管控生產線的。而且很多是移動式的應用,需要移動就不可能帶很大體積的東西。美國沃爾瑪的Scan & Go一開始就是這樣操作,它有12個攝像頭,用了很大的處理器,圖像很大量,因為它是靠電源,功耗非常大,下面一代它就走小型化、低功耗、多功能路線,且可以獨立運營,可以移動。根據市場需求,這些公司都轉型了,像你剛才講的這幾家,當他們4、5年前剛提出這個概念的時候,我們就和他們合作了。