Teknologi former musikken


Teknologi former musikken

Av Kjetil  Høyer Jonassen
 
shutterstock_79097050
Du hører sikkert på musikk. Og du har sikkert tenkt over at ulik musikk fra ulike genre og tidsepoker låter forskjellig. Mange kan for eksempel tidsbestemme musikk ut fra hvordan det låter. Andre kan til og med kjenne igjen lyden på en bestemt gitarmodell, en lydeffekt, en klang, eller en softwaresynth. Og de fleste vil kunne gjenkjenne Louis Armstrongs hese og svært personlige stemme. Eller den tørre trompetlyden til Miles Davis. Dette fenomenet kaller vi i populærmusikkvitenskapen for «sound». Soundbegrepet ble innført som vitenskapelig term på 1980-tallet og forsøker å forklare hvordan og hvorfor musikk låter som den gjør. Det er altså et auditivt analyseverktøy som fokuserer på lyd. Men for å forstå hvorfor ting låter som det låter, er det også en fordel å ha kunnskap om hvordan lydene er skapt og hva som har skjedd med lyden på veien til dine ørepropper eller høyttalerne i stua.
 
Det er ganske enkelt å gjenkjenne den digitale påvirkningen på dagens musikk dersom man lytter på moderne popmusikk. Genre som Electronic Dance Music (EDM), Hip-Hop, Electronica og lignende har et sound som er preget av de «instrumentene» som skaper lyden: nemlig datamaskiner. Både smart-telefoner, nettbrett og laptop brukes i dag til å skape musikk. I tillegg er de bærbare lydstudioer som man i stor grad kan benytte i hele produksjonskjeden: Fra den kreative og skapende delen av musikkproduksjon, via den praktiske og tekniske innspillingsdelen, til editeringsdelen og helt fram til distribusjon via sosiale medier eller streamingtjenester. En del musikk er aldri «ute av» datamaskinen, verken i produksjonsfasen, distribusjonsfasen eller i lyttefasen. Det er teknologien som legger til rette for dette. Og med det følger også et estetisk uttrykk som i form av sound gir disse moderne låtene et enhetlig preg: Ett felles soundunivers basert på de digitale løsninger for lydproduksjon. Sånn sett kan vi si at dagens musikk også estetisk sett i stor grad preges av teknologien som er tilgjengelig.
 
Men dette er ikke noe nytt fenomen. Helt siden slutten av 1870-tallet har teknologi drevet musikken fremover og skapt estetisk endring. Teknologiske oppfinnelser har lagt premisser og gitt nye muligheter som kunstnerne og musikerne har grepet fatt i og brukt til å skape nye musikkuttrykk. Før 1870 måtte man gå i konsertsalen for å oppleve musikk spilt av andre. Det første paradigmeskiftet kom i 1877, da Thomas Alva Edison tok patent på Phonografen: Et apparat som både kunne ta opp og spille av lyd. De første opptakene ble gjort mekanisk hvor lyden ble risset inn i sylindere dekket med tinnfolie, voks (som i Alexander Graham Bells Grafofon), eller på flate plater av hard gummi (Gramophonen til Emile Berliner). Det handlet om å gjenskape en konsertopplevelse hjemme i stuene hos folk. Det estetiske idealet var altså å formidle en live-opptreden mest mulig likt den akustiske virkeligheten. Etter at man gikk fra mekaniske til elektriske opptak på 1920-tallet, og man fikk magnetbåndopptakere rundt 1940 åpnet det seg nye muligheter. Man fikk flersporsopptakeren som gjorde det mulig å ta opp musikk på flere spor. Man kunne dermed dubbe opptak, og man fikk mulighet til å mikse sporene i ettertid. Sammen med stadig bedre mikrofoner og opptaksutstyr fikk disse tekniske løsningene enorme estetiske konsekvenser. De åpnet for muligheter til kunstig romsimulering og et individuelt lyddesign. Innspillingene gikk fra å være simulerte liveopptredener og gjengivelser av en akustisk virkelighet, til en ny form for sonisk virkelighet hvor innspillingen i seg selv ble det normative musikalske paradigmet: det fonografiske kunstverket. Artistene kunne nå skape sitt eget, individuelle sound. Dette åpnet for å bruke lydstudioet som noe mer enn bare et opptaksrom. Studioene ble lydlaboratorier. Det ble et sted for eksperimentering med sound. Det å lage et album ble et kreativt samarbeid mellom artist, musikere, produsent og ikke minst lydtekniker. De estetiske konsekvensene ble enorme. De manifesterte seg blant annet i kunstverk som The Beach Boys’ album Pet Sounds fra 1966 og The Beatles’ album Revolver senere samme år. Og vi fikk musikalske retninger som psykedelisk rock og prog-rock. Noe av det samme skjer når man på 1980-tallet går digitalt. Både synthesizeren, digital opptaksteknikk og sampling gir nye muligheter og et helt nye sound som preger musikken på 80- og 90-tallet. Det skapes nye genre som Hip-Hop, Techno og Electronica. Og det skapes nye estetiske idealer basert på den tilgjengelige teknologien.
 
I dag er vi på trappene til at også kunstig intelligens (AI) vil kunne få både praktiske og antakelig estetiske følger for musikken som lages. Vi har bærbare smarttelefoner kraftige nok til å lage fullverdige musikkproduksjoner. Veien videre ser spennende ut. Og all erfaring tilsier at musikken vi hører på om 10 og 20 år vil være preget av den teknologiske utviklingen som vi er en del av. Så får vi jobbe for at teknologien ikke overtar for mye av det menneskelige i musikken. At musikken ikke blir «kunstig». Musikk uten menneskelige emosjoner og en dypere formidling som kommer fra hjertet blir meningsløs. På samme måte som mennesker tok i bruk ny teknologi til å skape ny musikk tidligere i populærmusikkhistorien, trenger vi at menneske og teknologi utfyller hverandre og får løftet frem det beste av begge verdener også i fremtiden.
 
Kjetil-Hoyer-Jonassen.jpeg
Høyskolelektor musikk - stipendiat
Ansgar Teologiske Høgskole
Publisert 13. juni 2018