最近想來分享一些Fingerstyle的東西,
雖然我fingerstyle還有很多要加強的地方,可是看到有人把磚頭拿出來當黃金,就覺得還是要來講些東西
第一篇文章我們就直指核心:
「Fingerstyle要找老師學,還是自己看影片學一學就好?」
「老師用六線譜教學,跟我說手指要按哪裡,是不是...
最近想來分享一些Fingerstyle的東西,
雖然我fingerstyle還有很多要加強的地方,可是看到有人把磚頭拿出來當黃金,就覺得還是要來講些東西
第一篇文章我們就直指核心:
「Fingerstyle要找老師學,還是自己看影片學一學就好?」
「老師用六線譜教學,跟我說手指要按哪裡,是不是在騙我錢?」
/
Fingerstyle我自己摸索很久了,也去找過老師學(目前也正在跟老師學習中),我的彈奏水平如何,你在YouTube或IG上都可以看到我的彈奏影片,我相信我是可以來分享一些心得的
關於Fingerstyle要學的東西,大概可以分為幾種
1.自學也可以,但是找老師會快很多的東西
2.「一定要找老師才學得會的」東西
首先和你分享第一點:自學也可以,但是找老師會快很多的東西
/
1.1 運指、配指
首先是運指、配指,也就是「手指頭要按在哪裡」
有些人會告訴你,這是坊間老師騙錢的把戲,我想跟你說,會這樣講的人一定沒彈過困難的曲子
舉例,同樣第六弦第五格,你可以用食指、中指、無名指,甚至可以用小指、大拇指去按,那到底要用哪隻手指按?
手指頭要怎麼按、要怎麼去動作,是要根據曲子前後的音符,手指動作去安排,這其實是有「最佳解」的
在一些簡單的曲子,你彈的音很少,手指頭動的少,感覺不重要。
可是在困難的曲子,手指頭移動的非常多次,如果你沒有在前面用最省力的方式運指,到後面,你有很大的機會是彈不完整首歌的
至於手指頭要怎麼按,有的譜很佛心會有標注,
有的譜沒有標注,你就要去找影片看原作怎麼彈,連影片都沒有的話,你就要自己去研究和揣摩
而老師會幫你把這些找運指方式的時間都省下來,我自己的體驗是,有人幫你配好手指按法,學一首歌的速度是自學的三倍速!非常值得!
/
1.2 編曲分析
再來是歌曲的和弦分析、編曲分析,這部分老師會教你怎麼推導、怎麼去聽和弦還有分析樂句
舉個例字,就像英文課老師會跟你講解課文的文法
老實講這個就是看你樂理的底子如何,樂理底子好,自己做當然也可以,樂理差的話,你可能摸個半天也摸不出個所以然
一樣,這些老師都幫你整理好了
/
1.3 彈奏細節
彈奏的細節,大致上有律動、音色、動態
這部分也是也是看你對音樂的細膩度到哪邊,自己本身的音樂性好不好,有些人聽音樂很仔細,可以把自己彈奏的音色、律動、動態都做到跟原曲幾乎一樣
但有些人的程度只知道:「我彈出來跟原曲差很多,但我不知道差在哪裡」,這樣要進步就會比較慢,因為你抓不到方向
老師可以幫你雕這些細節,告訴你哪邊可以加強,給你一個改進的方向
/
再來進到第二部分,「一定要找老師學的東西」
依我目前的學習經驗,我覺得一定要找老師學的東西,就是左右手的彈奏姿勢
這個東西你一定會覺得說:「我看影片學,一樣彈得好好的啊!」
對,那是一開始,你彈的東西簡單,速度慢、按的音又少,所以覺得沒差
可是到後面,你練一練就會發現速度上不去,有些曲子就是彈不起來,然後開始懷疑自己沒有天份
其實根本原因出在你的雙手上
這陣子Fingerstyle討論很熱烈,有位老師提到:
「很多人的動作一看,就知道他往後吉他功力的上限在哪了」
我自己的經驗真的是這樣,我去找過兩次老師,兩次都有針對我姿勢的部分給予修正,點出我肌肉上施力的盲點,修正之後我的彈奏都有大幅度的提升
這個是自己練的時候很難發現的,你要從另外一角度、另外一雙眼睛才看得出來
「穿一雙磨腳的鞋,你絕對走不遠」
彈奏姿勢就是那麼重要的東西
姿勢你可以看影片模仿,可是到底有沒有彈對,還是要找個老師幫你修正
/
講到這邊你可能會有點沮喪,覺得沒有找老師,是不是就注定跟fingerstyle沒緣份了
我會講那麼多,是想讓你知道「找老師」有哪些好處,以及「自學」有可能會遇到的問題
正視問題,才有機會解決問題
而不是傻傻的相信「Fingerstyle看影片學就好,學一學再去找老師才不會被騙」,結果錢沒省到,還浪費時間亂學
/
至於我在摸索Fingerstyle的時候遇到哪些困難,怎麼解決,下一篇文章會再來和你分享
如果對這一系列有興趣,記得留言+1讓我知道喔!
#fingerstyle #指彈吉他 #指彈 #演奏曲 #吉他演奏曲 #fingerstyle演奏曲 #吉他 #木吉他 #學吉他 #Wen吉他 #Wen吉他誌 #wenguitar #wenguitar01 #指彈拉 #彈指 #彈吉他 #學習吉他
左右盲吉他譜 在 WenStudio吉他教學 Facebook 的最佳解答
最近想來分享一些Fingerstyle的東西,
雖然我fingerstyle還有很多要加強的地方,可是看到有人把磚頭拿出來當黃金,就覺得還是要來講些東西
第一篇文章我們就直指核心:
「Fingerstyle要找老師學,還是自己看影片學一學就好?」
「老師用六線譜教學,跟我說手指要按哪裡,是不是在騙我錢?」
/
Fingerstyle我自己摸索很久了,也去找過老師學(目前也正在跟老師學習中),我的彈奏水平如何,你在YouTube或IG上都可以看到我的彈奏影片,我相信我是可以來分享一些心得的
關於Fingerstyle要學的東西,大概可以分為幾種
1.自學也可以,但是找老師會快很多的東西
2.「一定要找老師才學得會的」東西
首先和你分享第一點:自學也可以,但是找老師會快很多的東西
/
1.1 運指、配指
首先是運指、配指,也就是「手指頭要按在哪裡」
有些人會告訴你,這是坊間老師騙錢的把戲,我想跟你說,會這樣講的人一定沒彈過困難的曲子
舉例,同樣第六弦第五格,你可以用食指、中指、無名指,甚至可以用小指、大拇指去按,那到底要用哪隻手指按?
手指頭要怎麼按、要怎麼去動作,是要根據曲子前後的音符,手指動作去安排,這其實是有「最佳解」的
在一些簡單的曲子,你彈的音很少,手指頭動的少,感覺不重要。
可是在困難的曲子,手指頭移動的非常多次,如果你沒有在前面用最省力的方式運指,到後面,你有很大的機會是彈不完整首歌的
至於手指頭要怎麼按,有的譜很佛心會有標注,
有的譜沒有標注,你就要去找影片看原作怎麼彈,連影片都沒有的話,你就要自己去研究和揣摩
而老師會幫你把這些找運指方式的時間都省下來,我自己的體驗是,有人幫你配好手指按法,學一首歌的速度是自學的三倍速!非常值得!
/
1.2 編曲分析
再來是歌曲的和弦分析、編曲分析,這部分老師會教你怎麼推導、怎麼去聽和弦還有分析樂句
舉個例字,就像英文課老師會跟你講解課文的文法
老實講這個就是看你樂理的底子如何,樂理底子好,自己做當然也可以,樂理差的話,你可能摸個半天也摸不出個所以然
一樣,這些老師都幫你整理好了
/
1.3 彈奏細節
彈奏細節的細節,大致上有律動、音色、動態
這部分也是也是看你對音樂的細膩度到哪邊,自己本身的音樂性好不好,有些人聽音樂很仔細,可以把自己彈奏的音色、律動、動態都做到跟原曲幾乎一樣
但有些人的程度只知道:「我彈出來跟原曲差很多,但我不知道差在哪裡」,這樣要進步就會比較慢,因為你抓不到方向
老師可以幫你雕這些細節,告訴你哪邊可以加強,給你一個改進的方向
/
再來進到第二部分,「一定要找老師學的東西」
依我目前的學習經驗,我覺得一定要找老師學的東西,就是左右手的彈奏姿勢
這個東西你一定會覺得說:「我看影片學,一樣彈得好好的啊!」
對,那是一開始,你彈的東西簡單,速度慢、按的音又少,所以覺得沒差
可是到後面,你練一練就會發現速度上不去,有些曲子就是彈不起來,然後開始懷疑自己沒有天份
其實根本原因出在你的雙手上
這陣子Fingerstyle討論很熱烈,有位老師提到:
「很多人的動作一看,就知道他往後吉他功力的上限在哪了」
我自己的經驗真的是這樣,我去找過兩次老師,兩次都有針對我姿勢的部分給予修正,點出我肌肉上施力的盲點,修正之後我的彈奏都有大幅度的提升
這個是自己練的時候很難發現的,你要從另外一角度、另外一雙眼睛才看得出來
「穿一雙磨腳的鞋,你絕對走不遠」
彈奏姿勢就是那麼重要的東西
姿勢你可以看影片模仿,可是到底有沒有彈對,還是要找個老師幫你修正
/
講到這邊你可能會有點沮喪,覺得沒有找老師,是不是就注定跟fingerstyle沒緣份了
我會講那麼多,是想讓你知道「找老師」有哪些好處,以及「自學」有可能會遇到的問題
正視問題,才有機會解決問題
而不是傻傻的相信「Fingerstyle看影片學就好,學一學再去找老師才不會被騙」,結果錢沒省到,還浪費時間亂學
/
至於我在摸索Fingerstyle的時候遇到哪些困難,怎麼解決,下一篇文章會再來和你分享
如果對這一系列有興趣,記得留言+1讓我知道喔!
#fingerstyle #指彈吉他 #指彈 #演奏曲 #吉他演奏曲 #fingerstyle演奏曲 #吉他 #木吉他 #學吉他 #Wen吉他 #Wen吉他誌 #wenguitar #wenguitar01 #指彈拉 #彈指 #彈吉他 #學習吉他
左右盲吉他譜 在 台灣物聯網實驗室 IOT Labs Facebook 的精選貼文
AI 將可快速分離人聲、各式樂器等音源,Facebook 開源 Demucs 計畫
作者 雷鋒網 | 發布日期 2020 年 03 月 11 日 10:59 |
音樂源分離,是利用技術將一首歌曲分解成它的組成成分,如人聲、低音和鼓,這和人類大腦的工作很類似,大腦可以將一個單獨的對話,從周圍的噪音和一屋子的人聊天中分離出來。
如果你擁有原始的錄音室多軌錄音,這很容易實現,你只需調整混音來分離一個音軌,但是,如果你從一個普通 MP3 檔案開始,所有的樂器和聲音都被混合到一個立體聲錄音中,即使是最複雜的軟體程式也很難精確地挑出一個部分。
Facebook AI 的研究人員已經開發了一個系統,可以做到這一點──精確度高得驚人。
創建者名叫亞歷山大‧笛福茲(Alexandre Defossez),是 Facebook 人工智慧巴黎實驗室的科學家。笛福茲的系統被稱為 Demucs,這個名字來源於「音樂資源深度提取器」,其工作原理是檢測聲波中的複雜模式,對每種樂器或聲音的波形模式建立一個高層次的理解,然後利用人工智慧將它們巧妙地分離。
笛福茲說,像 Demucs 這樣的技術,不僅能幫助音樂家學習複雜的吉他即興重複段落,總有一天,它還能讓人工智慧助理在嘈雜的房間裡更容易聽到語音指令。笛福茲說,他的目標是讓人工智慧系統擅長辨識音頻源的組成部分,就像它們現在可以在一張照片中準確地區分不同的物體一樣。「我們在音頻方面還沒有達到同樣的水平。」他說。
分解聲波的更好方法
聲源分離長期以來一直吸引著科學家。1953 年,英國認知科學家科林‧切爾瑞(Colin Cherry)創造了「雞尾酒會效應」這個詞語,用來描述人類在擁擠嘈雜的房間裡專注於一次談話的能力。
工程師們首先試圖透過調整立體聲錄音中的左右聲道,或調整均衡器設置來提高或降低某些頻率,進而隔離歌曲的人聲或吉他聲。
基於聲譜圖的人工智慧系統,在分離出以單一頻率響起或共振的樂器的音符方面相對有效,例如鋼琴或小提琴旋律。
這些旋律在聲譜圖上顯示為清晰、連續的水平線,但是隔離那些產生殘餘噪音的撞擊聲,比如鼓、低音拍擊,是一項非常艱鉅的任務。鼓點感覺像一個單一的、即時的整體事件,但它實際上包含了不同的部分。對於鼓來說,它包括覆蓋較高頻率範圍的初始撞擊,隨後是在較低頻率範圍內的無音高衰減。笛福茲說,一般的小鼓「就頻率而言,到處都是」。
聲譜圖只能將聲波表現為時間和頻率的組合,無法捕捉到這樣的細微差別。因此,他們將鼓點或拍子低音處理成幾條不連續的垂直線,而不是一個整齊、無縫的聲音。這就是為什麼透過聲譜圖分離出來的鼓和低音軌道,聽起來常常是模糊不清的。
夠聰明的系統來重建缺失
基於人工智慧的波形模型避免了這些問題,因為它們不試圖將一首歌放到時間和頻率的僵化結構中。笛福茲解釋,波形模型的工作方式與電腦視覺相似,電腦視覺是人工智慧的研究領域,旨在讓電腦學會從數位圖像中辨識模式,進而獲得對視覺世界的高級理解。
電腦視覺使用神經網路來檢測基本模式──類似於在圖像中發現角落和邊緣──然後推斷更高級或更複雜的模式。「波形模型的工作方式非常相似」,笛福茲說。他解釋了波形模型如何需要幾秒鐘來適應歌曲中的突出頻率──人聲、低音、鼓或吉他──並為每一個元素生成單獨的波形。然後,它開始推斷更高比例的結構,以增加細微差別,並精細雕刻每個波形。
笛福茲說,他的系統也可以比做探測和記錄地震的地震儀。地震時,地動儀的底座會移動,但懸掛在上面的重物不會移動,這使得附著在重物上的筆可以畫出記錄地面運動的波形。人工智慧模型可以探測到同時發生的幾個不同地震,然後推斷出每個地震的震級和強度的細節。同樣,笛福茲的系統分析並分離出一首歌曲的本來面目,而不是根據預先設定的聲譜圖結構來分割它。
笛福茲解釋,構建這個系統需要克服一系列複雜的技術挑戰。他首先使用了 Wave-U-Net 的底層架構,這是一個為音樂源分離開發的早期人工智慧波形模型。然後他還有很多工作要做,因為聲譜圖模型的表現優於 Wave-U-Net。他透過添加線性單元來微調波形網路中分析模式的演算法參數。笛福茲還增加了長短期記憶,這種結構允許網路處理整個數據序列,如一段音樂或一段視頻,而不僅是一個數據點,如圖像。笛福茲還提高了 Wave-U-Net 的速度和記憶體使用率。
這些修改幫助 Demucs 在一些重要方面勝過 Wave-U-Net,比如它如何處理一種聲音壓倒另一種聲音的問題。「你可以想像一架飛機起飛,引擎噪音會淹沒一個人的聲音」,笛福茲說。
以前的波形模型,透過簡單地移除原始音頻源文件的一部分來處理這個問題,但是它們不能重建丟失材料的重要部分。笛福茲增強了 Demucs 解碼器的能力,「Demucs 可以重新創建它認為存在但卻迷失在混音中的音頻」,這意味著他的模型可以重新合成可能被響亮的鐃鈸聲影響而遺失的柔和鋼琴音符,因為它理解應該呈現什麼樣的聲音。
這種重構和分離的能力使 Demucs 比其他波形模型有優勢。笛福茲說,Demucs 已經與最好的波形技術相匹配,並且「遠遠超出」最先進的聲譜技術。
在盲聽測試中,38 名參與者從 50 首測試曲目中隨機抽取 8 秒鐘進行聽音,這 50 首曲目由 3 個模型分開:Demucs、領先波形、頻譜圖技術。聽眾認為 Demucs 在品質和無偽影(如背景噪音或失真)方面表現最佳。
Demucs 已經引起了人工智慧愛好者的興趣,精通技術的讀者可以從 GitHub 下載 Demucs 的代碼,代碼用 MusDB 數據集來分離音樂源。
笛福茲解釋,隨著 Demucs 的發展,它將為人們在家中創作音樂的數位音頻工作站帶來聲音的真實性。這些工作站提供了能夠喚起特定時代或風格的合成儀器,通常需要對原始硬體進行大量的數位化改造。
想像一下,如果音樂源分離技術能夠完美地捕捉 20 世紀 50 年代搖滾歌曲中用電子管放大器演奏的老式空心電吉他的聲音,Demucs 讓音樂愛好者和音樂家離這個能力更近了一步。
資料來源:https://technews.tw/2020/03/11/using-ai-for-music-source-separation/?fbclid=IwAR1C-0LhFNEkIFUg9QS3xRQK8VKeqKIkPEx9kh7QdGamcsCfUViwyeXyqXg
左右盲吉他譜 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
AI 將可快速分離人聲、各式樂器等音源,Facebook 開源 Demucs 計畫
作者 雷鋒網 | 發布日期 2020 年 03 月 11 日 10:59 |
音樂源分離,是利用技術將一首歌曲分解成它的組成成分,如人聲、低音和鼓,這和人類大腦的工作很類似,大腦可以將一個單獨的對話,從周圍的噪音和一屋子的人聊天中分離出來。
如果你擁有原始的錄音室多軌錄音,這很容易實現,你只需調整混音來分離一個音軌,但是,如果你從一個普通 MP3 檔案開始,所有的樂器和聲音都被混合到一個立體聲錄音中,即使是最複雜的軟體程式也很難精確地挑出一個部分。
Facebook AI 的研究人員已經開發了一個系統,可以做到這一點──精確度高得驚人。
創建者名叫亞歷山大‧笛福茲(Alexandre Defossez),是 Facebook 人工智慧巴黎實驗室的科學家。笛福茲的系統被稱為 Demucs,這個名字來源於「音樂資源深度提取器」,其工作原理是檢測聲波中的複雜模式,對每種樂器或聲音的波形模式建立一個高層次的理解,然後利用人工智慧將它們巧妙地分離。
笛福茲說,像 Demucs 這樣的技術,不僅能幫助音樂家學習複雜的吉他即興重複段落,總有一天,它還能讓人工智慧助理在嘈雜的房間裡更容易聽到語音指令。笛福茲說,他的目標是讓人工智慧系統擅長辨識音頻源的組成部分,就像它們現在可以在一張照片中準確地區分不同的物體一樣。「我們在音頻方面還沒有達到同樣的水平。」他說。
分解聲波的更好方法
聲源分離長期以來一直吸引著科學家。1953 年,英國認知科學家科林‧切爾瑞(Colin Cherry)創造了「雞尾酒會效應」這個詞語,用來描述人類在擁擠嘈雜的房間裡專注於一次談話的能力。
工程師們首先試圖透過調整立體聲錄音中的左右聲道,或調整均衡器設置來提高或降低某些頻率,進而隔離歌曲的人聲或吉他聲。
基於聲譜圖的人工智慧系統,在分離出以單一頻率響起或共振的樂器的音符方面相對有效,例如鋼琴或小提琴旋律。
這些旋律在聲譜圖上顯示為清晰、連續的水平線,但是隔離那些產生殘餘噪音的撞擊聲,比如鼓、低音拍擊,是一項非常艱鉅的任務。鼓點感覺像一個單一的、即時的整體事件,但它實際上包含了不同的部分。對於鼓來說,它包括覆蓋較高頻率範圍的初始撞擊,隨後是在較低頻率範圍內的無音高衰減。笛福茲說,一般的小鼓「就頻率而言,到處都是」。
聲譜圖只能將聲波表現為時間和頻率的組合,無法捕捉到這樣的細微差別。因此,他們將鼓點或拍子低音處理成幾條不連續的垂直線,而不是一個整齊、無縫的聲音。這就是為什麼透過聲譜圖分離出來的鼓和低音軌道,聽起來常常是模糊不清的。
夠聰明的系統來重建缺失
基於人工智慧的波形模型避免了這些問題,因為它們不試圖將一首歌放到時間和頻率的僵化結構中。笛福茲解釋,波形模型的工作方式與電腦視覺相似,電腦視覺是人工智慧的研究領域,旨在讓電腦學會從數位圖像中辨識模式,進而獲得對視覺世界的高級理解。
電腦視覺使用神經網路來檢測基本模式──類似於在圖像中發現角落和邊緣──然後推斷更高級或更複雜的模式。「波形模型的工作方式非常相似」,笛福茲說。他解釋了波形模型如何需要幾秒鐘來適應歌曲中的突出頻率──人聲、低音、鼓或吉他──並為每一個元素生成單獨的波形。然後,它開始推斷更高比例的結構,以增加細微差別,並精細雕刻每個波形。
笛福茲說,他的系統也可以比做探測和記錄地震的地震儀。地震時,地動儀的底座會移動,但懸掛在上面的重物不會移動,這使得附著在重物上的筆可以畫出記錄地面運動的波形。人工智慧模型可以探測到同時發生的幾個不同地震,然後推斷出每個地震的震級和強度的細節。同樣,笛福茲的系統分析並分離出一首歌曲的本來面目,而不是根據預先設定的聲譜圖結構來分割它。
笛福茲解釋,構建這個系統需要克服一系列複雜的技術挑戰。他首先使用了 Wave-U-Net 的底層架構,這是一個為音樂源分離開發的早期人工智慧波形模型。然後他還有很多工作要做,因為聲譜圖模型的表現優於 Wave-U-Net。他透過添加線性單元來微調波形網路中分析模式的演算法參數。笛福茲還增加了長短期記憶,這種結構允許網路處理整個數據序列,如一段音樂或一段視頻,而不僅是一個數據點,如圖像。笛福茲還提高了 Wave-U-Net 的速度和記憶體使用率。
這些修改幫助 Demucs 在一些重要方面勝過 Wave-U-Net,比如它如何處理一種聲音壓倒另一種聲音的問題。「你可以想像一架飛機起飛,引擎噪音會淹沒一個人的聲音」,笛福茲說。
以前的波形模型,透過簡單地移除原始音頻源文件的一部分來處理這個問題,但是它們不能重建丟失材料的重要部分。笛福茲增強了 Demucs 解碼器的能力,「Demucs 可以重新創建它認為存在但卻迷失在混音中的音頻」,這意味著他的模型可以重新合成可能被響亮的鐃鈸聲影響而遺失的柔和鋼琴音符,因為它理解應該呈現什麼樣的聲音。
這種重構和分離的能力使 Demucs 比其他波形模型有優勢。笛福茲說,Demucs 已經與最好的波形技術相匹配,並且「遠遠超出」最先進的聲譜技術。
在盲聽測試中,38 名參與者從 50 首測試曲目中隨機抽取 8 秒鐘進行聽音,這 50 首曲目由 3 個模型分開:Demucs、領先波形、頻譜圖技術。聽眾認為 Demucs 在品質和無偽影(如背景噪音或失真)方面表現最佳。
Demucs 已經引起了人工智慧愛好者的興趣,精通技術的讀者可以從 GitHub 下載 Demucs 的代碼,代碼用 MusDB 數據集來分離音樂源。
笛福茲解釋,隨著 Demucs 的發展,它將為人們在家中創作音樂的數位音頻工作站帶來聲音的真實性。這些工作站提供了能夠喚起特定時代或風格的合成儀器,通常需要對原始硬體進行大量的數位化改造。
想像一下,如果音樂源分離技術能夠完美地捕捉 20 世紀 50 年代搖滾歌曲中用電子管放大器演奏的老式空心電吉他的聲音,Demucs 讓音樂愛好者和音樂家離這個能力更近了一步。
資料來源:https://technews.tw/…/using-ai-for-music-source-separation/…