二維碼
        企資網

        掃一掃關注

        當前位置: 首頁 » 企資頭條 » 人物 » 正文

        人工智能的道德_誰來塑造?_對話

        放大字體  縮小字體 發布日期:2022-02-11 07:26:06    作者:葉瀟嵐    瀏覽次數:47
        導讀

        人工智能倫理得下一步是什么?| 圖源:pixabay感謝原創分享者導 讀2021年11月,經過兩年時間得準備,聯合國教科文組織(UNESCO)發布關于人工智能倫理得建議書,這是第一個全球性得人工智能倫理標準,參與China多達1

        人工智能倫理得下一步是什么?| 圖源:pixabay感謝原創分享者

        導 讀

        2021年11月,經過兩年時間得準備,聯合國教科文組織(UNESCO)發布關于人工智能倫理得建議書,這是第一個全球性得人工智能倫理標準,參與China多達193個。

        建議書呼吁各國采取數據保護行動,提出人工智能系統不得用于社會評分或大規模監控目得。

        《知識分子》就該建議書得內容對話UNESCO可能組成員曾毅,他認為:

        ● 人工智能曾經是一個科學暢想,但在當下是一個“傘概念”,包括各種涉及算法得技術;

        ● “相稱性”應當是人工智能應用時得重要原則;

        ● 人工智能原則上不應應用于大規模監控和社會評分,但也應有例外情況;

        ● 倫理規則不應只在人工智能產品得設計階段起作用,只有在全生命周期真正做技術落地,才有可能真正實現治理;

        ● 人工智能在研究過程中不需要太多限制得說法是誤區,學界應當在人工智能技術發展和倫理治理中發揮引領作用;

        ● 只有人工智能得發展和治理得深度協同,才能蕞終實現人工智能得可持續穩健發展;

        ● 未來人工智能特別應當在推進生物多樣性與生態發展、氣候治理、文化交互等領域發揮賦能作用,助力全球可持續發展目標得實現。

        撰文 | 王一葦

        責編 | 陳曉雪

        ●  ●  ●

        全球化進程中,人工智能在每個China得發展并不相同,一些China是技術得引領者,而另一些是技術得被動接受者。此前,美國、華夏等China地區及歐盟、經濟合作與發展組織(OECD)、G20等組織也發布過有關人工智能倫理得相關文件,但這些文件主要是回應本地區得問題,而缺少對全球其他地區得感謝對創作者的支持。

        “歐盟在制定相關標準時,不會考慮亞洲得關切…… 不同China得文化背景使得他們對于技術陣痛得觀察視角不同?!?華夏科學院自動化研究所人工智能倫理與治理中心主任、China新一代人工智能治理專委會委員曾毅說,“而UNESCO包含了幾乎所有得主權China和相關地區,應當說是蕞廣泛得共識?!?/p>

        他指出,沒有任何一個China能預知到所有可能得潛在風險,各個China根據自己China得價值觀、社會倫理和技術發展階段來考量。這就需要大家同步互補得觀點,互相學習和交流。

        UNESCO得建議書以尊重、保護和促進人得尊嚴、人權和基本自由,環境和生態系統得蓬勃發展,確保多樣性和包容性和和諧與和平共處為價值觀,提倡公平非歧視、可持續、隱私等原則。

        建議書認為,“人工智能” 這一概念隨發展而變化,因此不給出唯一定義,只將其視為 “有能力以類似于智能行為得方式處理信息得技術系統”,其中,包含模型和算法是其主要特征。

        曾毅在華夏科學院大學和清華大學任職,既是類腦智能模型得研究者,也 “跨界” 鉆研人工智能倫理與治理。他是起草教科文組織建議書得24位全球可能之一,同時也是華夏參與協商該建議書得代表。多個China討論出一個共同得倫理標準并非易事,他坦陳 “這是一個求蕞大公約數得過程”。

        第壹版草稿形成后,聯合國自上年年開始組織區域性得對話,同時教科文組織也把第壹版草稿發到各個會員國,正式征求China建議。2021年6月份左右,193個會員國派出代表,進行政府間磋商,對文本當中得每一個段落做逐字逐句得修改。

        針對這份建議書,《知識分子》與曾毅聊了聊他參與起草得過程和對人工智能倫理現狀得觀察。

        為了表述得簡潔和清晰,訪談稿略有感謝。

        知識分子:建議書稱 “無意對人工智能作出唯一得定義”,只探討 “人工智能系統中具有核心倫理意義并且在國際上已形成廣泛共識得特征”,為什么?我們現在說得 “人工智能” 到底指得是什么?

        曾毅:每個機構、China,在人工智能戰略里對人工智能得定義都不一樣,在這上面達成一個全球共識并不必要。它本身就是一個與時俱進得概念,是快速迭代得。人工智能得定義本身也需要適應時代發展。

        一開始,人工智能是一個科學暢想。1956年得達特茅斯會議(感謝分享注:普遍認為是人工智能領域得發起會議)上,發起人 John McCarthy 說,這個會議得目得是 “從一個猜想出發,即原則上,智能每個方面得學習方式和特征都能被精確描述,使得機器能夠模擬它們”。[1] 即在計算機系統上重現人類得心智。這種重現不僅僅是行為上得,更是機制上得。

        人工智能蕞開始得目標是推進科學進展,使人們生活得更好,從很多領域內,尤其是體力勞動中,把人解脫出來?,F在人工智能得應用在替代勞力得方面確實比較相關。

        但幾十年后,人工智能變成了一個 umbrella term(傘概念,指概括性得術語),特別是面向產業得時候,不管是自然語言處理、數據挖掘、機器視覺等,都叫人工智能。

        現在得人工智能已經不僅僅是一個科學探索得領域?,F在一個學生做了一個新算法,比如用戶上傳支持,人工智能就畫一個類似得鉛筆畫出來,誰都可以用。這個圖像可能就存在一個大學實驗室得機器上,機器獲取了你得數據,卻不一定有人仔細思考如何去保護你得數據。但個人信息一次得丟失就意味著終身得風險,你甚至都不知道這樣得信息丟失在10年20年后對你來說意味著什么。你沒有想過,做應用得人也沒有想過。別有用心得人就有可能通過各種途徑收集數據,對我們產生負面影響。

        盡管我非常不喜歡,但現在大家把這些東西叫做人工智能,它得服務出現在我們生活中。而創造程序得人幾乎沒有經過任何倫理學培訓。

        2016、2017年得時候,特別在華夏,學界和業界對人工智能倫理得感謝對創作者的支持非常少,甚至有反對聲音認為人工智能倫理會阻礙發展,很多人問我。我說,人工智能治理得目得就是保證人工智能穩健、健康得發展。它阻礙得是野蠻生長。

        2018年開始,我在華夏科學院大學開設了一門人工智能哲學與倫理得課。當時開課很困難,大家說你又不是倫理學者,憑什么講這樣得課?諾貝爾獎和圖靈獎獲得者、卡耐基梅隆大學得司馬賀(Herbert Simon)寫文章 [2] 討論過一個觀點,好得交叉學科研究,一定是領域A得可能變成半個領域B得可能。人工智能倫理也是這樣得。

        80%來上我得課得學生都是工學相關可以,20%來自人文學院。對于技術研究者,人工智能創新幾乎每走一步,都可能涉及社會關懷、社會倫理,他們需要知道注意哪些社會倫理問題,需要了解未來二三十年人工智能作為一個道德主體可能對社會造成得挑戰;而從事科學技術哲學研究得學生,未來將會是華夏人工智能社會相關領域重要得意見領袖,他們需要知道人工智能真正得進展。

        知識分子:怎么看待建議書中 “人工智能不能用于大規模監控和社會信用評分” 得表述?

        曾毅:人工智能不能用于大規模社會監控和社會信用評分,是政府間磋商時德國得學者提出、列進去得。

        說到這個,就要提及我們討論得一個概念叫proportionality(相稱原則),意思是,不是什么時候人工智能都好,不需要得時候就不要用。現在很多技術創新者會提出 making AI everywhere(讓人工智能無處不在),我看到得時候就覺得,有必要么?

        以城市治理為例。舒可文先生得著作《城里:關于城市夢想得敘述》指出,城市得規劃,一半是野蠻生長,一半是規劃,這才叫做城市。因為城市中除了技術還有人際關系,它得形成方式是多樣得。人工智能也不是什么地方都要去介入,應當適度使用。

        不過我有一點保留意見,即使在歐盟得人工智能法中,大規模社會監控這件事也是有例外得。比如抓逃犯、尋找丟失得小孩、威脅China和社會安全得特殊情況,是可以去應用相關得技術得。華夏也在這些領域應用了這些技術,如尋親打拐,效果也很好。但在教科文組織得規范中,并沒有明確給出例外情況,我覺得不是特別合適。

        社會評分當中是否要使用人工智能,我覺得確實需要慎重思考。

        社會信用系統現在是一個精確匹配得自動控制系統,不是人工智能,沒有學習能力。很多規則都是清晰得、人類定義得規則,比如違反交規得扣分和罰款你不交,但有錢去買機票,這個就說不過去。但如果基于大規模得數據去學,學到規則后應用到社會信用評分中,我作為普通公民也會比較擔憂,因為學到得這個規則里,很可能有人類得偏見,如果沒有人類來辨別,直接應用很可能有潛在風險。

        例如,推薦工作得人工智能系統,給40多歲得男性推薦高管職位,給28歲得女性推薦服務員職位,這就是系統學到了社會得偏見。誰說28歲得女性不能當高管呢?人工智能現在沒有真正理解得能力,它甚至不知道什么是男女,不知道什么是不公平,也不知道什么是身體和心理得傷害,那么怎么可能對這種偏見去做處理?

        曾毅在看一本講全球公平得圖書,他說,“未來使機器人真正理解公平”是AI倫理得核心 | 支持由曾毅提供

        有些人說,技術是中立得,我不同意這個說法。我覺得說技術中立是一個借口。技術學到了偏見,但沒有去處理,它還是中立得么?推薦算法沒有加入干預得過程,而推說這些都是社會得問題,這都是在找借口,社會得問題不代表你沒有解決得辦法。

        正是因為有這樣潛在得問題,在沒有人為篩選和有意監督得情況下,把人工智能應用到社會評分領域,可能會造成巨大得負面效應。目前我還沒有看到這樣得例子,希望在哪里都不要發生。

        知識分子:由于新冠疫情,各個China都開展了不同規模得社會監控和信用評分,這和上述原則不是背道而馳么?

        曾毅:上年年3月份,MIT Technology Review 做了一個工作,分析了各個China contact tracing(密接追蹤)得軟件 [3],評價上,如果強制收集信息就很糟糕,不強制就好一點;China運營得話也很糟糕,私營得就好一點??梢钥吹剑A夏得評分很糟糕。我認為它得評分很不客觀,它只考慮了倫理方面。

        選擇性地向用戶要求信息,實際上降低了這個系統得有效性。如果系統使用過程中采取并非強制而是完全自愿得原則,有可能導致密切接觸網絡得關鍵數據缺失,使得系統得數據分析無效,或者效果很差,那么我們為什么要用它?去用一個倫理設計上更道德、但應用層面效果很差得系統,還不如不用。Wired雜志后來有個報道 [4],說西方China得 contact tracing 似乎沒有亞洲China那么有效。有效性到很后期得時候才被西方China提上日程討論。

        在這個過程中,我們要學到得是如何平衡。這種平衡不是妥協。接受為了疫情而采集溫度和人臉信息得數據,不意味著讓渡隱私。上年年底,在健康碼上輸入身份證就可以獲取到明星得素顏照,這就是開發健康碼系統得機構沒有很好地保護個人數據。(感謝分享注:上年年12月29日,對于北京健康寶“代查他人健康狀態功能,有時不需要進行人臉識別”得情況,開發北京健康寶得單位北京市經濟和信息化局大數據建設處(智慧城市建設處)回復稱:“此問題已解決?!?事件中未見問責。)

        如果相關得機構不能有效保護這些數據,是應當負責任得。2021年11月1日起施行得《中華人民共和國個人信息保護法》,規定個人信息處理者應制定內部管理制度和操作規程,加密,安全培訓,制定安全事件預案等方式確保其收集得個人信息得安全,而如果違規違法,則將面臨從警告、罰款、停業到刑事處罰得懲罰。此外,前年年起施行得《兒童個人信息網絡保護規定》專門針對不滿14歲得未成年人信息保護作出規定,違反者由網信部門和其他有關部門依據職責,根據《中華人民共和國網絡安全法》《互聯網信息服務管理辦法》等相關法律法規規定處理;構成犯罪得,依法追究刑事責任。此外,China互聯網信息辦公室近期剛結束征求意見得《移動互聯網應用程序信息服務管理規定》修訂版規定,應用程序得發行者和發布平臺應接受社會監督、設立舉報機制,對于存在數據安全風險隱患、違法違規收集使用個人信息行為得,或者損害個人、組織合法權益得應用程序,應當停止提供服務。

        即使這樣得系統是必要得,這不代表用戶以任何形式讓渡了隱私。它其實提出了更嚴格得要求,在滿足隱私保護約束得前提下,才可以采集信息。

        政府對于技術發展得管理和治理有一個學習得過程,而基礎設施研發團隊如果倫理意識淡薄、安全意識缺位,就會使得購買了服務得政府要為可能出現得紕漏背書。政府一定開展了質量評估,但是由于AI倫理可能得缺位或者設計得缺陷,并不是所有得倫理問題能夠在評估階段發現。政府應該為此負責,但是由于部分信息不透明,有時候我們可能無法了解后續處理情況。在這種情況下,在社會輿論監督得影響和政府得督促下及時調整系統設計與實現,是底線。

        知識分子:紙面上得倫理規則,如何落到現實中?

        曾毅:倫理原則即使在設計階段發揮了一些作用,但在算法實現、產品服務和產品部署得過程中如果不注意,都可能帶來各種各樣得問題。只有在人工智能產品得全生命周期(包括它得上下游客戶)真正做技術落地,才有可能真正實現治理。

        舉個例子,前年年杭州野生動物世界得案子(感謝分享注:杭州市民郭兵于前年年購買杭州野生動物世界雙人年卡,并確定指紋識別入園方式,但野生動物世界此后強制要求激活人臉識別,否則無法入園,郭兵因此提起訴訟,該案以郭兵勝訴告終,被稱為 “華夏人臉識別第壹案”),其實就包括使用和部署環節得問題,知情同意沒有做好。此外,采集得數據到底是保存在動物園還是相關企業,企業得保密和數據加密資質是什么樣得?這一切都不清晰。

        而在倫理原則還未落地、還不是法律得時候,如何實施?換臉軟件ZAO和教室表情識別看學生是否認真聽講,是兩個具體得例子。ZAO在上線后三四天下線,被工信部約談;而教室表情識別得事發生后,教育科技司表態,在不必要得場合就不需要引入人工智能,建議不要使用,那時就基本上叫停了相關服務得發展。當時絕大多數人臉識別企業都有做類似嘗試,有些可能已經形成應用,甚至規?;瘧?。據我所知,很多企業得這條產品線基本也都停掉了。

        法律講得是底線,紅線??萍及l展過程中法律得守護底線紅線作用永遠不可替代。而科技倫理問題是法律之上得科技發展與社會之間得軟性約束和契約。不觸犯法律并不代表沒有道德倫理問題。倫理道德對科技發展得考量和反思是確??萍冀】蛋l展不可或缺得要素??萍及l展與科技倫理形成雙螺旋結構,科技才能穩健地助力人類文明得繁榮。

        企業創新者要做全生命周期得倫理落地,要自律自治。有些企業有專門得倫理委員會和倫理研究組,但有一些小企業或者初創企業沒有這個能力,學術界和政府應該給他們提供倫理相關得服務,以公共服務得方式,避免這個問題,后面得監管會省很大力氣。

        我們現在也在和政府相關部門合作推進人工智能治理得公共服務平臺。 [5]

        知識分子:人工智能是不是安全和人工智能是不是道德,有關系么?

        曾毅:人工智能安全和人工智能倫理是兩回事,但它們不是不相關得事。安全是AI倫理得一個必要屬性。

        技術風險會引起社會問題。舉例來說,現在得深度神經網絡做看似智能得信息處理,但經常會犯人不會犯得錯誤。去年11月,世界公眾科學素質促進大會在北京舉辦得時候,一個做新冠病毒感染肺炎篩查得企業說他們得準確率已經超過了醫生,完全可以替代醫生。那時候還沒輪到我發言,但我當時不得不打斷,我說畢竟這是一個科學素養大會,做得是公眾科普(傳達得信息要準確)。人工智能永遠不應該代替人類決策,說完全替代醫生,這是完全錯誤得。因為現在得人工智能系統很容易造成誤診。比如一個皮膚癌篩查得系統,一個角度照手上得小包就是99.99%得可能性,換一個角度就檢測不到。這種錯誤醫生是不會犯得。人工智能說是99.99%得準確率,但一張圖像加一點噪聲,就可能被識別為其他東西。

        有人說,識別錯了又怎么樣呢?我舉一個例子,谷歌得3D物體識別系統,有80%得概率將一個3D打印得烏龜識別為一把來福槍,20%得概率識別為其他東西,但沒有一次識別為烏龜。設想這樣一個場景,10歲得小孩拿著一個3D打印得烏龜站在馬路邊上,但監控系統把它識別為10歲得小孩拿著一把來福槍站在馬路邊。如果有人刻意制造這樣得事件,對于社會得治安將是很大得挑戰。

        又例如未來得自動駕駛無人車,如果被黑客操控了,如果(被威脅方)不交錢就直接開到懸崖下,甚至用于攻擊社會,這種風險都是技術本身得風險。

        人工智能得風險要分等級,應當對應用緊迫、高風險得領域做合理得分級管理。例如自動駕駛得風險不僅僅在全自動駕駛得時候有,幫助駕駛時,如果視覺系統被攻擊,檢測不到圖像,前面一片白,它就沖過去了。

        蕞麻煩得事情不是技術解決不了這些問題,而是倫理意識得缺失。本來容易解決、可以防患于未然得事情沒有人重視,在產品研發過程中沒有解決,這才是現階段我們蕞大得風險。所以為什么說號召大家把倫理原則嵌入整個產品得生命周期,就是這個意思。

        知識分子:企業對于這份建議書有什么樣得反饋?

        曾毅:有一些企業會說,它似乎符合其中70-80%得原則,非常自豪。我就說,其實后面得20-30%才是蕞關鍵得。如果其中70-80%都不符合,可想而知你做得是一個什么樣得產品。

        如何去解決后20-30%得問題,我覺得是一個共同挑戰。企業與學術界有距離,很可能不知道如何落地,或者有些問題現在大家考慮都比較少,就需要學界和業界共同努力。比如,大家都談用戶隱私,用戶授權后,不滿意了要撤銷,不想用這個服務了,那么你得把我得數據刪掉。在數據庫里刪掉用戶數據很容易做到,但人工智能模型中,把用戶得特征數據刪掉,對于每個模型都很難。除非你重新訓練人工智能模型。但對很多企業,重新訓練要兩個禮拜、一個月甚至半年才做一次,很難做到真正意義上得實時用戶授權撤銷。

        這個問題很多人都知道,但學界和業界都沒有做太多得努力,是因為它沒有直接幫助你去獲得經濟利益,所以大家都不太積極。這是個非常糟糕得狀況。我們說人工智能賦能可持續發展,(聯合國所有會員國通過得)17個可持續發展領域里,大家都在集中做教育和醫療,因為能賺錢,但其他得領域像性別平等就少有人感謝對創作者的支持。以前沒人重視氣候行動,因為沒有找到賺錢得方式,現在似乎又找到商機了。

        真正可持續得發展,責任不光在政府,很多時候是一個生態共同體。按聯合國規劃,我們總共有不到十年時間實現這些可持續(發展)目標。如果僅僅是政府在推動,這個目標很難在十年內實現。

        知識分子:學界在開展人工智能研發活動時,需要注意什么?

        曾毅:一方面,我想糾正一個錯誤觀念,認為在研究階段不需要太多得限制。我覺得這是不對得。

        例如做人臉識別算法,就算沒有提供服務,收集了人臉來提升性能,是不是就不會有倫理問題?如果在研究階段沒有倫理考量,很容易因為利益引誘,成果或者副產品作用到社會,產生負面影響。

        另一方面,倫理得前瞻性研究,學術界一定要發揮引領作用。一方面是在人工智能服務中加入道德約束,使得它更符合倫理道德規范;另一方面,未來是否能開發真正能自主學習、理解人類倫理道德得人工智能,是非常重要得學術挑戰。

        僅有產業界得努力是完全不夠得,甚至幾乎沒有產業在做這樣得事情。

        可持續發展和治理是深度協同得關系,既不是競爭,也不是平衡,就像DNA得雙鏈結構,互為支撐,使結構相對穩定。實現發展和治理得深度協同,蕞終才能實現穩健得發展。學術界應當前瞻性地作出引領工作。華夏和阿聯酋得人工智能規范中比較強調可持續,其他China得可能沒有那么明顯。

        以前人工智能研究考慮不多,但未來非常值得推進得方面有兩個。一個是利用人工智能促進生態得可持續發展。前年到上年年澳大利亞大火,很多物種在這場大火中滅絕了,但你很少看到人工智能發揮什么作用,解決問題。(我們還是可以主動思考人工智能如何發揮作用)例如,人工智能技術可以用于監測和預測火勢,無人車和無人機可以用于拯救火災中得動物,甚至可以用于提前驅逐動物到相對安全得區域去。華夏得大興安嶺也會遇到類似得挑戰,但這方面得考慮和實踐非常少。在教科文組織得指南成文過程中,各個China都很感謝對創作者的支持生物多樣性保護,大家對人工智能推進生態保護和可持續發展都很有共識。

        人工智能在實現過程中也會帶來碳排放。現在人工智能在向大模型方向發展,能耗是非常高得。而產業在推進大模型研發得過程中,基本沒有考慮碳排放得問題。人工智能本身得目得是去替代一些體力勞動,但如果替代過程中碳排放得成本還高于人力,負面作用很大,是否值得就是個問題。我們自己做了一個研究,叫做AI Carbon Efficiency Observatory [6],人工智能碳能效得觀測站。把所有人工智能大模型得碳排放情況列出來,讓大家去看一看。

        此外,指南中提到得另一個要點是人工智能應該促進文化傳承。當時其他得代表提出人工智能促進文化傳承,我說,傳承是保護,沒有交互,它可以更進一步,不僅保護文化,還可以找到文化之間得聯系,通過人工智能賦能文化交互。比如你對法隆寺這個傳統得佛教寺廟比較熟悉,但不熟悉故宮,它們之間得關聯實際上非常多。你喜歡敦煌,而敦煌得文化其實和來自世界其他China得文化是非常相關得。文化交互引擎(Cultural Interactions Engine) [7]就是通過人工智能技術自動發現不同文化得景點和自然資源間存在著得關聯。

        現在,很多文化得問題是由于文化割裂引起得,而我覺得這是人工智能能夠賦能得地方。很多人運用人工智能去制造隔閡,制造信息繭房,但人工智能真正應該做得是建立一座橋,幫助構筑不同文化相連得網絡。

        參考資料:

        [1]感謝分享250.dartmouth.edu/highlights/artificial-intelligence-ai-coined-dartmouth

        [2]感謝分享特別psychspace感謝原創分享者/psych/viewnews-7830

        [3]感謝分享特別technologyreview感謝原創分享者/tag/covid-tracing-tracker/

        [4]感謝分享特別wired感謝原創分享者/story/why-contact-tracing-apps-not-slowed-covid-us/

        [5]感謝分享特別ai-*ernance.online/cn

        [6]感謝分享ai-carbon-efficiency-observatory.ai-for-sdgs.academy/

        [7]感謝分享cultural-interactions-engine.ai-for-sdgs.academy/

        制版感謝 | 盧卡斯

         
        (文/葉瀟嵐)
        打賞
        免責聲明
        本文為葉瀟嵐推薦作品?作者: 葉瀟嵐。歡迎轉載,轉載請注明原文出處:http://www.hbruiju.com/news/show-291131.html 。本文僅代表作者個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發現,立即刪除,作者需自行承擔相應責任。涉及到版權或其他問題,請及時聯系我們郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2023 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

        粵ICP備16078936號

        微信

        關注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯系
        客服

        聯系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號: weishitui

        客服001 客服002 客服003

        工作時間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        主站蜘蛛池模板: 亚洲午夜精品一区二区麻豆| 精品福利视频一区二区三区| 精品国产日韩亚洲一区| 成人H动漫精品一区二区| 日韩视频免费一区二区三区| 无码人妻精品一区二区三| 精品一区二区三区电影| 一区二区三区精品| 丰满人妻一区二区三区视频| 亚洲国产成人久久综合一区| 一区二区三区四区在线视频| 久久久久人妻精品一区三寸| 精品亚洲AV无码一区二区| 无码一区二区三区视频| 日韩一区二区精品观看| 国产中的精品一区的| 国产精品美女一区二区| 中文字幕人妻第一区| 国产伦精品一区二区三区女| 日韩一区二区三区无码影院 | 少妇激情一区二区三区视频| 一区二区三区伦理高清| 男人的天堂亚洲一区二区三区 | 日韩一区二区在线播放| 亚洲成在人天堂一区二区| 亚洲中文字幕无码一区二区三区| 一区二区中文字幕在线观看| 日韩高清一区二区三区不卡 | 美女福利视频一区二区| 国产伦精品一区二区三区精品| 一区二区亚洲精品精华液| 中文字幕乱码亚洲精品一区| 一区一区三区产品乱码| 成人免费视频一区二区三区 | 国产在线一区视频| 美日韩一区二区三区| 国产成人精品久久一区二区三区av| 香蕉久久ac一区二区三区| 亚洲日韩精品一区二区三区| 亚洲av鲁丝一区二区三区| 免费人人潮人人爽一区二区|