據報道,由研究人員YumiWakao領銜的野村綜合研究所(以下簡稱“NRI”)團隊預測,未來20年內(nei) 近半數的日本工作崗位將被機器人取代。
據Wakao稱,NRI研究團隊與(yu) 牛津大學教授邁克爾·奧斯本(MichaelOsborne)聯合對逾600個(ge) 工作崗位進行了研究,發現“多達49%的工作崗位可以由計算機係統所取代”。奧斯本之前曾在美國和英國進行類似的研究。
NRI研究團隊根據工作崗位對創造性的要求,對每個(ge) 工作崗位實現自動化的可能性進行了研究。研究發現,客服、快遞員或農(nong) 業(ye) 類工作崗位被計算機化的可能性相當高,而寫(xie) 作、教學等對創造性要求較高的工作崗位近期被計算機取代的可能性較小。
奧斯本的研究發現,47%的美國工作崗位和35%的英國工作崗位可能被計算機取代。Wakao表示,“但是,這隻是一種假設性、技術性計算,沒有考慮社會(hui) 因素。”
有媒體(ti) 報道稱,許多日本人都對即將到來的機器人革命持接受態度。因為(wei) 它不但能緩解日本人口快速老齡化帶來的經濟壓力,同時能解放勞動力,使他們(men) 能從(cong) 事更有創造性和更有益的工作。
麻省理工:研發比人類手指敏感100倍的機器人手指
據外國媒體(ti) 報道,美國麻省理工學院視覺科學學科聯合波士頓東(dong) 北大學研究團隊近日成功研製了一種觸覺傳(chuan) 感器GelSight,比人類的手指更加靈活敏感。
近來,隨著儀(yi) 表和控製工學技術的發展,遊泳機器人、踢球機器人、跳遠機器人等多種多樣的機器人研究成果展示到大眾(zhong) 麵前,此次麻省理工學院及東(dong) 北大學聯合研究團隊開發的“機器人手指傳(chuan) 感器”突破了此前機器人手部關(guan) 節不靈敏等限製,甚至比人類手指更加靈活敏感,因此受到了各界矚目。該傳(chuan) 感器不是以機器來辨識觸覺,而是以3D視覺實時定位物體(ti) 的方位,以實現對物體(ti) 的識別和傳(chuan) 感。據悉這種技術比人類的手部觸覺靈敏約100倍。GelSight內(nei) 置有紅色、黃色、白色、藍色等照明設備,GelSight可根據指示的信號迅速做出反應,根據麻省理工學院方麵公開的演示視頻更可直觀的感受到GelSight的強大功能。裝置了GelSight傳(chuan) 感器的機器人可輕鬆拔出裝置在電腦上的USB,但未裝置GelSight的機器人則無法完成該動作。
自2009年就開始研發該傳(chuan) 感器裝置的麻省理工學院視覺科學科愛德華教授表示,GelSight最大的特征在於(yu) ,最快的辨識物體(ti) 的視覺信號,並馬上將其轉化為(wei) 觸覺信號。該設備提供了一種可檢查大體(ti) 積產(chan) 品的方法,這些產(chan) 品由於(yu) 體(ti) 積較大而無法在顯微鏡下做檢驗。未來這種方法也可能用於(yu) 醫學、法醫學和生物識別等多種領域。
可代替收銀員的智能機器人問世
當你在超市裏購買(mai) 菜刀的時候,一定不會(hui) 希望收銀員在打現金收入記錄機的時候拿著它在你麵前危險地晃來晃去。但如果收銀員是機器人的話可就不一定了,因為(wei) 它並不知道怎樣做才是正確的,除非有人預先對其進行過教導。這也正是美國康奈爾大學正在研發的一個(ge) 項目。
由AshutoshSaxena教授領導的科學家們(men) 與(yu) 工業(ye) 機器人製造商巴克斯特(Baxter)公司共同完成了這項合作。此款機器人在近期獲得了一係列的輿論好評,不僅(jin) 僅(jin) 是因為(wei) 它的價(jia) 格低廉,最重要的是普通的人類工人也可以對其進行教導,通過對手臂的引導過程讓它更加出色地完成工作任務。
康奈爾大學完整地模擬了雜貨店的結賬過程,在那裏,機器人能夠通過視覺識別出不同類型的商品,然後將它們(men) 撿起並放置在裝袋區域。最初,它隻是利用熱傳(chuan) 感器來感知周邊的人群,即使拿著菜刀危險地靠近他們(men) 也不會(hui) 覺得有什麽(me) 不妥。
為(wei) 了訓練它擺脫那種行為(wei) ,參與(yu) 者首先讓正在搖晃的機器人保持靜止狀態,然後將它的胳膊推回到一個(ge) 更為(wei) 安全的位置。重新開啟後,機器人會(hui) 通過屏幕顯示出三種改進後的擺動軌跡,這一切都以它剛剛學到的知識為(wei) 基礎。最後,參與(yu) 者將擇優(you) 挑選出一個(ge) 最好的。
在第三次嚐試過程中,工作人員將再度引導機器人的移動軌跡,通過此次對手臂的微調,它不會(hui) 再將刀片直麵顧客了。利用自定義(yi) 的學習(xi) 法則,機器人逐漸學會(hui) 了怎樣更好的拿取菜刀。
隻需三到五節課,機器人就可以輕鬆地學會(hui) 菜刀的處理方式。與(yu) 此同時,它還能夠兼顧地了解其它商品的注意事項,例如容易被壓扁的水果和需要保持直立包裝的物品等。
“螃蟹機器人”可勘測水下環境
目前,韓國海洋科學和技術研究所最新研製世界上最大、涉水最深的水下行走機器人——CrabsterCR200,頗似一隻巨大的機器螃蟹,其重量達到635公斤,像一個(ge) 真實甲殼綱動物能夠在海底探索,使用複雜力學將其固定。
預計這種螃蟹機器人可用於(yu) 科學勘測項目,例如:修複石油和天然氣管道等海底設施。在概念視頻中,研究小組設想螃蟹機器人抓起物體(ti) ,裝載到類似於(yu) 大嘴結構的隔間中,可能在實際應用時並不具備這些特征。
基於(yu) 它的體(ti) 積和重量,這款機器人可以代替水肺潛水員在強洋流下作業(ye) ,它能夠在強洋流下固定,將“頭”低下來,抬升尾部,正麵迎對洋流。螃蟹機器人裝配著11個(ge) 攝像頭,其中包括一個(ge) 聲學相機通過反射聲波觀測模糊的海水,並拍攝實時視頻。
一個(ge) 彩色高清相機可近距離放大勘測目標,並將勘測數據通過一根500米長係鏈發送,便於(yu) 操作人員控製螃蟹機器人。
這款機器人使用多普勒儀(yi) 測量水流的速度和方向,同時聲學脈衝(chong) 可在海底建立通訊確定其位置。機器人可使用聲納建立水環境3D圖像,在水下移動時速為(wei) 1.6公裏,它由韓國海洋科學和技術研究所工程師建造,2013年夏季進行首次水下測試。
科學家計劃CrabsterCR200試水200米深度,之後部署在黃海進行海底勘測,幫助考古學家探尋12世紀失事沉船。
轉載請注明出處。