幫忙挽回ganq?挽回和挽救

路口大爺 155 0

??注意《在線測算》付款后顯示結(jié)果!

【導(dǎo)言】幫忙挽回ganq?挽回和挽救?不懂就往下看,情感精細(xì)講解“幫忙挽回ganq”的內(nèi)容如下:

全文目錄一覽:

蓋亞奧特曼之加恩q是第幾集

身高:不明.體重:不明.

登場劇集:第6集《嘲笑之眼》

在XIG戰(zhàn)斗機(jī)隊(duì)演習(xí)中,出現(xiàn)在矢渡山脈地面巨大的眼.一直在笑.眼本身的構(gòu)成不明,本身沒有生命和熱量反應(yīng).并且把周圍的巖石都懸浮起來,受到XIG戰(zhàn)斗機(jī)發(fā)射的導(dǎo)彈攻擊后,將導(dǎo)彈的彈藥和火箭推進(jìn)劑做為能源,去造出可以做到物理活動(dòng)的身體.

奇獸眼Q(編號1)(奇獸加恩Q(編號1)).(ガンQ(コードNo.01)/GanQ)

身高:55米.體重:55000噸.

登場劇集:第6集《嘲笑之眼》

簡介:從幕田市地底出現(xiàn),以花崗巖和石灰?guī)r構(gòu)成身體,關(guān)節(jié)部分由金屬連接使巖石融合,胸部有輕量的爆炸和燃燒.眼睛發(fā)出破壞光彈和吸收光束,曾在戰(zhàn)斗中將蓋亞吸入體內(nèi).以嘲笑聲使蓋亞陷入痛苦中.

自然控制機(jī)械天界(自然控制機(jī)器天卡伊).(テンカイ/TENKAI)

GaN是什么晶體

氮化鎵,寬禁帶半導(dǎo)體,用于半導(dǎo)體照明芯片,一般用于緩沖層、量子阱(MWQ)中的壘層(barrier)等,在藍(lán)光LED和紫外LED中有重要應(yīng)用。工業(yè)上一幫采用金屬有機(jī)化合物氣相外延沉積(MOCVD)技術(shù)生長。

GAN的理解

生成器(Generator,G)即假鈔制造者,辨別器(Discriminator,D)的任務(wù)是識別假鈔,前者想要盡力蒙混過關(guān),而后者則是努力識別出是真鈔(來自于原樣本)還是假鈔(生成器生成的樣本)。兩者左右博弈,更后達(dá)到一種平衡:生成器能夠以假亂真(或者說生成的與原樣本再也沒差),而判別器以1/2概率來瞎猜。

GAN的主要結(jié)構(gòu)包括一個(gè)生成器G(Generator)和一個(gè)判別器D(Discriminator)。

我們舉手寫字的例子來進(jìn)行進(jìn)一步窺探GAN的結(jié)構(gòu)。

我們現(xiàn)在擁有大量的手寫數(shù)字的數(shù)據(jù)集,我們希望通過GAN生成一些能夠以假亂真的手寫字圖片。主要由如下兩個(gè)部分組成:

目標(biāo)函數(shù)的理解:

其中判別器D的任務(wù)是更大化右邊這個(gè)函數(shù),而生成器G的任務(wù)是更小化右邊函數(shù)。

首先分解一下式子,主要包含:D(x)、(1-D(G(z))。

D(x)就是判別器D認(rèn)為樣本來自于原分布的概率,而D(G(z))就是判別器D誤把來自于生成器G造的假樣本判別*的概率。那么D的任務(wù)是更大化D(x)同時(shí)更小化D(G(z))(即更大化1-D(G(z))),所以綜合一下就是更大化D(x)(1-D(G(z)),為了方便取log,增減性不變,所以就成了logD(x)+log(1-D(G(z))。

而G想讓 和 足夠像,也就是D(G(z))足夠大;而logD(x)并不對它本身有影響,所以他的衡量函數(shù)可以只是min{log(1-D(z))},也可以加一個(gè)對他來說的常數(shù)后變?yōu)?

目標(biāo)函數(shù)的推導(dǎo)、由來

判別器在這里是一種分類器,用于區(qū)分樣本的真?zhèn)?,因此我們常常使用交叉熵(cross entropy)來進(jìn)行判別分布的相似性,交叉熵公式如下:

公式中 和 為真實(shí)的樣本分布和生成器的生成分布。 關(guān)于交叉熵的內(nèi)容

在當(dāng)前模型的情況下,判別器為一個(gè)二分類問題,因此可以對基本交叉熵進(jìn)行更具體地展開如下:

為正確樣本分布,那么對應(yīng)的( )就是生成樣本的分布。 D 表示判別器,則 表示判別樣本為正確的概率, 則對應(yīng)著判別為錯(cuò)誤樣本的概率。

將上式推廣到N個(gè)樣本后,將N個(gè)樣本相加得到對應(yīng)的公式如下:

到目前為止還是基本的二分類,下面加入GAN中特殊的地方。

對于GAN中的樣本點(diǎn) ,對應(yīng)于兩個(gè)出處,要么來自于真實(shí)樣本,要么來自于生成器生成的樣本 ~ ( 這里的 是服從于投到生成器中噪聲的分布)。

其中,對于來自于真實(shí)的樣本,我們要判別為正確的分布 。來自于生成的樣本我們要判別其為錯(cuò)誤分布( )。將上面式子進(jìn)一步使用概率分布的期望形式寫出(為了表達(dá)無限的樣本情況,相當(dāng)于無限樣本求和情況),并且讓 為 1/2 且使用 表示生成樣本可以得到如下:

與原式 其實(shí)是同樣的式子

若給定一個(gè)樣本數(shù)據(jù)的分布 和生成的數(shù)據(jù)分布 那么 GAN 希望能找到一組參數(shù) 使分布 和 之間的距離更短,也就是找到一組生成器參數(shù)而使得生成器能生成十分逼真的圖片。

現(xiàn)在我們可以從訓(xùn)練集抽取一組真實(shí)圖片來訓(xùn)練 分布中的參數(shù) 使其能逼近于真實(shí)分布。因此,現(xiàn)在從 中抽取 個(gè)真實(shí)樣本 { },對于每一個(gè)真實(shí)樣本,我們可以計(jì)算 ,即在由 確定的生成分布中, 樣本所出現(xiàn)的概率。因此,我們就可以構(gòu)建似然函數(shù):

從該似然函數(shù)可知,我們抽取的 個(gè)真實(shí)樣本在 分布中全部出現(xiàn)的概率值可以表達(dá)為 L。又因?yàn)槿? 分布和 分布相似,那么真實(shí)數(shù)據(jù)很可能就會出現(xiàn)在 分布中,因此 個(gè)樣本都出現(xiàn)在 分布中的概率就會十分大。

下面我們就可以更大化似然函數(shù) L 而求得離真實(shí)分布更近的生成分布(即更優(yōu)的參數(shù)θ):

在上面的推導(dǎo)中,我們希望更大化似然函數(shù) L。若對似然函數(shù)取對數(shù),那么累乘 ∏ 就能轉(zhuǎn)化為累加 ∑ ,并且這一過程并不會改變更優(yōu)化的結(jié)果。因此我們可以將極大似然估計(jì)化為求令 期望更大化的θ,而期望 可以展開為在 x 上的積分形式: 。又因?yàn)樵摳鼉?yōu)化過程是針對θ的,所以我們添加一項(xiàng)不含θ的積分并不影響更優(yōu)化效果,即可添加 。添加該積分后,我們可以合并這兩個(gè)積分并構(gòu)建類似 KL 散度的形式。該過程如下:

這一個(gè)積分就是 KL 散度的積分形式,因此,如果我們需要求令生成分布 盡可能靠近真實(shí)分布 的參數(shù) θ,那么我們只需要求令 KL 散度更小的參數(shù)θ。若取得更優(yōu)參數(shù)θ,那么生成器生成的圖像將顯得非常真實(shí)。

下面,我們必須證明該更優(yōu)化問題有唯一解 G*,并且該唯一解滿足 。不過在開始推導(dǎo)更優(yōu)判別器和更優(yōu)生成器之前,我們需要了解 Scott Rome 對原論文推導(dǎo)的觀點(diǎn),他認(rèn)為原論文忽略了可逆條件,因此更優(yōu)解的推導(dǎo)不夠完美。

在 GAN 原論文中,有一個(gè)思想和其它很多方法都不同,即生成器 G 不需要滿足可逆條件。Scott Rome 認(rèn)為這一點(diǎn)非常重要,因?yàn)閷?shí)踐中 G 就是不可逆的。而很多證明筆記都忽略了這一點(diǎn),他們在證明時(shí)錯(cuò)誤地使用了積分換元公式,而積分換元卻又恰好基于 G 的可逆條件。Scott 認(rèn)為證明只能基于以下等式的成立性:

該等式來源于測度論中的 Radon-Nikodym 定理,它展示在原論文的命題 1 中,并且表達(dá)為以下等式:

我們看到該講義使用了積分換元公式,但進(jìn)行積分換元就必須計(jì)算 ,而 G 的逆卻并沒有假定為存在。并且在神經(jīng)網(wǎng)絡(luò)的實(shí)踐中,它也并不存在??赡苓@個(gè)方法在機(jī)器學(xué)習(xí)和統(tǒng)計(jì)學(xué)文獻(xiàn)中太常見了,因此我們忽略了它。

在極小極大博弈的第一步中,給定生成器 G,更大化 V(D,G) 而得出更優(yōu)判別器 D。其中,更大化 V(D,G) 評估了 P_G 和 P_data 之間的差異或距離。因?yàn)樵谠撐闹袃r(jià)值函數(shù)可寫為在 x 上的積分,即將數(shù)學(xué)期望展開為積分形式:

其實(shí)求積分的更大值可以轉(zhuǎn)化為求被積函數(shù)的更大值。而求被積函數(shù)的更大值是為了求得更優(yōu)判別器 D,因此不涉及判別器的項(xiàng)都可以看作為常數(shù)項(xiàng)。如下所示,P_data(x) 和 P_G(x) 都為標(biāo)量,因此被積函數(shù)可表示為 a D(x)+b log(1-D(x))。

若令判別器 D(x) 等于 y,那么被積函數(shù)可以寫為:

為了找到更優(yōu)的極值點(diǎn),如果 a+b≠0,我們可以用以下一階導(dǎo)求解:

如果我們繼續(xù)求表達(dá)式 f(y) 在駐點(diǎn)的二階導(dǎo):

其中 a,b∈(0,1)。因?yàn)橐浑A導(dǎo)等于零、二階導(dǎo)小于零,所以我們知道 a/(a+b) 為極大值。若將 a=P_data(x)、b=P_G(x) 代入該極值,那么更優(yōu)判別器 D(x)=P_data(x)/(P_data(x)+P_G(x))。

更后我們可以將價(jià)值函數(shù)表達(dá)式寫為:

如果我們令 D(x)=P_data/(P_data+p_G),那么我們就可以令價(jià)值函數(shù) V(G,D) 取極大值。因?yàn)?f(y) 在定義域內(nèi)有唯一的極大值,更優(yōu) D 也是唯一的,并且沒有其它的 D 能實(shí)現(xiàn)極大值。

其實(shí)該更優(yōu)的 D 在實(shí)踐中并不是可計(jì)算的,但在數(shù)學(xué)上十分重要。我們并不知道先驗(yàn)的 P_data(x),所以我們在訓(xùn)練中永遠(yuǎn)不會用到它。另一方面,它的存在令我們可以證明更優(yōu)的 G 是存在的,并且在訓(xùn)練中我們只需要逼近 D。

當(dāng)然 GAN 過程的目標(biāo)是令 P_G=P_data。這對更優(yōu)的 D 意味著什么呢?我們可以將這一等式代入 D_G*的表達(dá)式中:

這意味著判別器已經(jīng)完全困惑了,它完全分辨不出 P_data 和 P_G 的區(qū)別,即判斷樣本來自 P_data 和 P_G 的概率都為 1/2?;谶@一觀點(diǎn),GAN 作者證明了 G 就是極小極大博弈的解。該定理如下:

「當(dāng)且僅當(dāng) P_G=P_data,訓(xùn)練標(biāo)準(zhǔn) C(G)=maxV(G,D) 的全局更小點(diǎn)可以達(dá)到?!?/p>

以上定理即極大極小博弈的第二步,求令 V(G,D ) 更小的生成器 G(其中 G 代表更優(yōu)的判別器)。之所以當(dāng) P_G(x)=P_data(x) 可以令價(jià)值函數(shù)更小化,是因?yàn)檫@時(shí)候兩個(gè)分布的 JS 散度 [JSD(P_data(x) || P_G(x))] 等于零,這一過程的詳細(xì)解釋如下。

原論文中的這一定理是「當(dāng)且僅當(dāng)」聲明,所以我們需要從兩個(gè)方向證明。首先我們先從反向逼近并證明 C(G) 的取值,然后再利用由反向獲得的新知識從正向證明。設(shè) P_G=P_data(反向指預(yù)先知道更優(yōu)條件并做推導(dǎo)),我們可以反向推出:

該值是全局更小值的候選,因?yàn)樗挥性?P_G=P_data 的時(shí)候才出現(xiàn)。我們現(xiàn)在需要從正向證明這一個(gè)值常常為更小值,也就是同時(shí)滿足「當(dāng)」和「僅當(dāng)」的條件?,F(xiàn)在放棄 P_G=P_data 的假設(shè),對任意一個(gè) G,我們可以將上一步求出的更優(yōu)判別器 D* 代入到 C(G)=maxV(G,D) 中:

因?yàn)橐阎?-log4 為全局更小候選值,所以我們希望構(gòu)造某個(gè)值以使方程式中出現(xiàn) log2。因此我們可以在每個(gè)積分中加上或減去 log2,并乘上概率密度。這是一個(gè)十分常見并且不會改變等式的數(shù)學(xué)證明技巧,因?yàn)楸举|(zhì)上我們只是在方程加上了 0。

采用該技巧主要是希望能夠構(gòu)建成含 log2 和 JS 散度的形式,上式化簡后可以得到以下表達(dá)式:

因?yàn)楦怕拭芏鹊亩x,P_G 和 P_data 在它們積分域上的積分等于 1,即:

此外,根據(jù)對數(shù)的定義,我們有:

因此代入該等式,我們可以寫為:

現(xiàn)在,如果讀者閱讀了前文的 KL 散度(Kullback-Leibler divergence),那么我們就會發(fā)現(xiàn)每一個(gè)積分正好就是它。具體來說:

KL 散度是非負(fù)的,所以我們馬上就能看出來-log4 為 C(G) 的全局更小值。

如果我們進(jìn)一步證明只有一個(gè) G 能達(dá)到這一個(gè)值,因?yàn)?P_G=P_data 將會成為令 C(G)=?log4 的唯一點(diǎn),所以整個(gè)證明就能完成了。

從前文可知 KL 散度是非對稱的,所以 C(G) 中的 KL(P_data || (P_data+P_G)/2) 左右兩項(xiàng)是不能交換的,但如果同時(shí)加上另一項(xiàng) KL(P_G || (P_data+P_G)/2),它們的和就能變成對稱項(xiàng)。這兩項(xiàng) KL 散度的和即可以表示為 JS 散度(Jenson-Shannon divergence):

假設(shè)存在兩個(gè)分布 P 和 Q,且這兩個(gè)分布的平均分布 M=(P+Q)/2,那么這兩個(gè)分布之間的 JS 散度為 P 與 M 之間的 KL 散度加上 Q 與 M 之間的 KL 散度再除以 2。

JS 散度的取值為 0 到 log2。若兩個(gè)分布完全沒有交集,那么 JS 散度取更大值 log2;若兩個(gè)分布完全一樣,那么 JS 散度取更小值 0。

因此 C(G) 可以根據(jù) JS 散度的定義改寫為:

這一散度其實(shí)就是 Jenson-Shannon 距離度量的平方。根據(jù)它的屬性:當(dāng) P_G=P_data 時(shí),JSD(P_data||P_G) 為 0。綜上所述,生成分布當(dāng)且僅當(dāng)?shù)扔谡鎸?shí)數(shù)據(jù)分布式時(shí),我們可以取得更優(yōu)生成器。

前面我們已經(jīng)證明 P_G=P_data 為 minV(G,D) 的更優(yōu)點(diǎn)。此外,原論文還有額外的證明白表示:給定足夠的訓(xùn)練數(shù)據(jù)和正確的環(huán)境,訓(xùn)練過程將收斂到更優(yōu) G。

證明:將V(G,D)=U(pg,D)視作pg的函數(shù),則U為pg的凸函數(shù),其上確界的次導(dǎo)數(shù)一定包括該函數(shù)更大值處的導(dǎo)數(shù),所以給定D時(shí),通過梯度下降算法更新pg從而優(yōu)化G時(shí),pg一定會收斂到更優(yōu)值。而之前又證明了目標(biāo)函數(shù)只有唯一的全局更優(yōu)解,所以pg會收斂到pdata。

實(shí)際上優(yōu)化G時(shí)是更新θg而不是pg。

參考鏈接:

Generative Adversarial Nets

通俗理解生成對抗網(wǎng)絡(luò)GAN - 陳誠的文章 - 知乎

機(jī)器之心GitHub項(xiàng)目:GAN完整理論推導(dǎo)與實(shí)現(xiàn),Perfect!

論文閱讀之Generative Adversarial Nets

怎樣挽回失去的愛情?情感專家為您解答。

失去的愛情要怎樣挽回?人總是在失去后才懂得珍惜,想要挽回,你必須明白的是,你們已經(jīng)分手了,所以,不要想著用交往時(shí)向?qū)Ψ绞竞玫姆椒?,對方就會重新回到你身邊?/p>

對于挽回方來說,害怕失去對方的心理會讓其做出沖動(dòng)不理智的行為來,比如送花,打電話、QQ、微信等求復(fù)合,結(jié)果反而讓對方更加疏遠(yuǎn)你。想要挽回,就要降低自己的需求感,以普通朋友的心態(tài)來對待兩人的交往,才能讓你們的關(guān)系更近一步發(fā)展。情感專家詳解,怎樣挽回失去的愛情,希望對你有所幫助。

一、失去的原因

找到失去的原因,才能更好地幫助你再次擁有。

缺乏感情交流。工作的忙碌,生活的許多意外也是讓這段感情分開的一部分因素,有時(shí)候就是因?yàn)檫@樣使兩個(gè)人缺乏交流,導(dǎo)致貌合神離。對方因?yàn)槿狈Ω星榻涣?,不能好好溝通與交流,情感得不到表達(dá),情緒不能發(fā)泄,感覺什么事情都要自己消化、處理。需要對方的時(shí)候,對方總是不在自己身邊。兩個(gè)人分離太久,感覺感情都淡了。

距離產(chǎn)生誤會。分隔兩地,長時(shí)間不能見面,你不能及時(shí)了解對方的情況,加之大家都很忙,沒有多余的時(shí)間溝通,長此以往,你們之間就會有一些沒有說清楚的事情。慢慢的,它就成為了你們感情生活中的一個(gè)遺留問題,成為你們分手的導(dǎo)火索。

外界誘惑。世界紛繁復(fù)雜,各式各樣的都有,尤其是小三、小四層出不窮。有的人受不住誘惑,想嘗試刺激,享受多種感情,就放縱自己,背叛感情,傷害愛人。更終,導(dǎo)致感情破裂,分手收場。

二、降低需求感

重建你的生活。失戀后豐富你的生活能有效的降低你的需求感,將自己的精力分散投資,在心里告訴自己她只是你生活的一部分。你可以通過試著去做以前不會去做的事來增加生活中的新鮮感等等,這樣你就可以有效降低你的需求感。

擴(kuò)大社交圈。擴(kuò)大你的社交圈認(rèn)識更多的人是一個(gè)有效降低需求感的方法,因?yàn)楫?dāng)你的生活圈出現(xiàn)別的人的時(shí)候你的精神就會被分散。你可以嘗試跟朋友一起去爬山、吃飯、也可以在周末聚餐,擴(kuò)大你的社交圈還能提高你的人際關(guān)系,提高你的價(jià)值,增強(qiáng)你的吸引力,一舉兩得。當(dāng)然讓你降低需求感不是說讓

你忘了她,而是讓你能更從容更理性的面對她。

逐步投資,巧用需求感。剛分手時(shí)強(qiáng)烈的需求感會讓你更容易意氣用事,跟著情緒做事不但不能打動(dòng)對方還可能做出錯(cuò)誤且無法挽回的事情,讓對方有一種你還是一點(diǎn)都沒變的感覺,所以要先降低自己的需求感,才能更客觀的審視自身的問題,每個(gè)人都會有被需求的渴望,但她現(xiàn)在不希望被你需求,那不如就先暫時(shí)放淡,再逐步加深。

三、提升自我

就如上述所說的,重建自己的生活是降低需求感的一種方式,而提升自我也包括在其中。想要挽回,只有改變,才能抹除對方對你的負(fù)面印象,更有利于你們關(guān)系的發(fā)展。

外在改造:也許此時(shí)此刻你自以為自己很完美了,不在需要做任何改變,但是你要知道女人必須要有一顆追求美的心。如果你不想去健身房你可以在家練瑜伽塑身,換個(gè)美美的發(fā)型,穿著上要穿一些突顯自己優(yōu)點(diǎn)的衣服,盡量挑選大方得體的衣服等等。人類都是視覺感官動(dòng)物,當(dāng)你下次以全新的面貌見到他的時(shí)候,你就會讓他有眼前一亮的感覺,這些提升都有助于你挽回愛情。

女人的內(nèi)在改造要比男人的簡單,所以你要抓緊機(jī)會去把自己的內(nèi)在好好改變一下。從今天起你要把自己養(yǎng)成溫柔、善解人意、不找茬、崇拜男人的女人,當(dāng)然內(nèi)在改造還有很多需要去發(fā)掘,你要有耐性去變成一個(gè)愛自己的人。真正能知道你的改變是在于內(nèi)在改造。改造之路很漫長,你要一邊學(xué)習(xí)一邊改變,才能讓自己成為更有價(jià)值的人。

四、增加聯(lián)系

當(dāng)對方逐漸被你吸引的時(shí)候,在你的引導(dǎo)下TA開始與你聯(lián)系,那在聯(lián)系的過程中有什么需要注意的呢?首先,給對方誠懇、真切的問候。當(dāng)你們很久不聯(lián)系了,再次聊天時(shí),無論出于禮貌還是其他,首先你都得給對方送上一句真誠的問候,表現(xiàn)得自然點(diǎn)、平淡點(diǎn)即可,這樣就不會給對方一種唐突、不自在的感覺。

其次,記得以朋友的身份去交流。當(dāng)你們再次取得聯(lián)系時(shí),你更應(yīng)該保持平常心,當(dāng)跟朋友聊天那樣跟對方交流,正因?yàn)槟銈冎皇桥笥?,朋友間的聊天問候是不會給女方造成壓力的,同時(shí)也容易讓雙方自然友好地交談。

不要過早提復(fù)合的事。男人注意了,萬萬不可在一取得重新聯(lián)系時(shí)就提出復(fù)合要求,這樣就等于向你的前女友表現(xiàn)出了你的高需求感,讓她覺得,你怎么還是這樣,一復(fù)聯(lián)就又來糾纏了,這時(shí)你也就等于把自己放在了一個(gè)低姿態(tài)的位置,使自己陷入被動(dòng)狀態(tài)。同時(shí),你過早表現(xiàn)出的復(fù)合意愿還容易給對方造成壓力,甚至讓前女友剛跟你復(fù)聯(lián)就又想跟你斷聯(lián)了。

多聊聊你現(xiàn)在的精彩生活。斷聯(lián)后的復(fù)聯(lián),聊天內(nèi)容的選取很重要,其實(shí)更好的就是聊聊分手后的生活,當(dāng)然這必須是積極的、正能量的,比如你升職了,讓對方知道,分手后你的生活變得更好了。但要注意的是,你不要長篇大論地炫耀,簡單說一下近況即可。

失去還能不能挽回?情感專家的答案是可以,只要你堅(jiān)定自己的決心,做該做的事,并在挽回成功后,學(xué)會經(jīng)營你們之間的感情,失去的也能變成此刻擁有著的。學(xué)會珍惜,學(xué)會享受當(dāng)下你們在一起的時(shí)光,才是愛情長久的保證。

內(nèi)容來源:無念情感(公眾號:wunianqinggan) 海量把妹干貨,攻略,導(dǎo)師一對一免費(fèi)教學(xué)

【總述】幫忙挽回ganq?挽回和挽救?情感百科解答,更多關(guān)于“挽回和挽救”的問題關(guān)注映森:http://m.b4i118.com/

在線情感咨詢,二級心理咨詢導(dǎo)師

標(biāo)簽: 幫忙挽回ganq

??注意《在線測算》付款后顯示結(jié)果!

抱歉,評論功能暫時(shí)關(guān)閉!

復(fù)制成功
微信號: 13410881630
添加老師微信, 1對1情感疏導(dǎo)
我知道了