Information

Bildar neurala nätverk i hjärnan cykler?

Bildar neurala nätverk i hjärnan cykler?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Med andra ord är det möjligt för dendrit av neuron A att anslutas till neuron B och samtidigt dendrit av neuron B vara anslutningar med axon av neuron A (eller liknande för ett större antal neuroner)?

Om så är fallet, finns det några statistiska uppgifter om antalet sådana cykler i den genomsnittliga mänskliga hjärnan?


I allmänhet är neurala nätverk mycket mindre enkla och riktade än ANN eller konstgjorda kretsar - anslutningar kan vara hämmande eller excitatoriska, variera mycket i styrka etc. etc. Så föga förvånande ja, återkommande observeras i faktiska neurala nätverk. Jag känner inte till någon statistik om frekvensen av sådana nätverksstrukturer, eller ens om sådana finns. Vår kunskap om hjärnan på den här fina nivån är fortfarande begränsad tror jag, det mer globala försöket att kartlägga 'konnektoret' överväger i allmänhet saker med högre upplösning.


Artificiellt neuralt nätverk

Artificiellt nervsystem (ANNs), brukar bara kallas neurala nätverk (NNs), är datorsystem vagt inspirerade av de biologiska neurala nätverken som utgör djurhjärnor.

En ANN är baserad på en samling sammankopplade enheter eller noder som kallas artificiella neuroner, som löst modellerar neuronerna i en biologisk hjärna. Varje anslutning, som synapserna i en biologisk hjärna, kan överföra en signal till andra neuroner. En artificiell neuron som tar emot en signal bearbetar den sedan och kan signalera neuroner kopplade till den. "Signalen" vid en anslutning är ett reellt tal, och utsignalen från varje neuron beräknas med någon icke-linjär funktion av summan av dess ingångar. Anslutningarna kallas kanter. Neuroner och kanter har vanligtvis en vikt som anpassas när lärandet fortskrider. Vikten ökar eller minskar signalstyrkan vid en anslutning. Neuroner kan ha ett tröskelvärde så att en signal skickas endast om den samlade signalen passerar det tröskelvärdet. Normalt aggregeras neuroner i skikt. Olika lager kan utföra olika transformationer på sina ingångar. Signaler färdas från det första lagret (indatalagret) till det sista lagret (utgångslagret), eventuellt efter att ha korsat lagren flera gånger.


Deep Nets och Vision

Konstgjorda neurala nätverk byggs med sammankopplande komponenter som kallas perceptroner, som är förenklade digitala modeller av biologiska neuroner. Nätverken har minst två lager av perceptroner, ett för ingångsskiktet och ett för utgången. Lägg ett eller flera "dolda" lager mellan ingången och utgången och du får ett "djupt" neuralt nätverk ju fler dolda lager, desto djupare nätverk.

Djupa nät kan tränas för att välja mönster i data, till exempel mönster som representerar bilder av katter eller hundar. Träning innebär att man använder en algoritm för att iterativt justera styrkan på kopplingarna mellan perceptronerna, så att nätverket lär sig att associera en given ingång (pixlarna i en bild) med rätt etikett (katt eller hund). När det väl har tränats bör det djupa nätet helst kunna klassificera en input som den inte har sett tidigare.

I sin allmänna struktur och funktion strävar djupa nät löst efter att emulera hjärnor, där de justerade styrkorna för förbindelser mellan neuroner speglar inlärda associationer. Neurovetenskapsmän har ofta påpekat viktiga begränsningar i den jämförelsen: Individuella neuroner kan bearbeta information mer omfattande än "dumma" perceptroner gör, till exempel, och djupa nät är ofta beroende av en sorts kommunikation mellan perceptroner som kallas back-propagation som inte verkar förekomma i nervsystemet. Men för beräkningsneurovetare har djupa nät ibland verkat som det bästa tillgängliga alternativet för att modellera delar av hjärnan.

Forskare som utvecklar beräkningsmodeller av det visuella systemet har påverkats av vad vi vet om det primata visuella systemet, särskilt vägen som är ansvarig för att känna igen människor, platser och saker som kallas den ventrala visuella strömmen. (En i stort sett separat väg, den dorsala visuella strömmen, behandlar information för att se rörelse och tingenas positioner.) Hos människor börjar denna ventrala väg i ögonen och går vidare till den laterala geniculära kärnan i thalamus, en slags relästation för sensorisk information. Den laterala geniculära kärnan ansluter till ett område som kallas V1 i den primära visuella cortexen, nedströms vilka ligger områden V2 och V4, som slutligen leder till den sämre temporala cortexen. (Omänskliga primathjärnor har homologa strukturer.)

Den centrala neurovetenskapliga insikten är att visuell informationsbehandling är hierarkisk och fortgår i steg: De tidigare stadierna bearbetar lågnivåfunktioner i synfältet (som kanter, konturer, färger och former), medan komplexa representationer, såsom hela objekt och ansikten , dyker upp först senare i den sämre temporala cortexen.

Dessa insikter styrde utformningen av det djupa nätet av Yamins och hans kollegor. Deras djupa nät hade dolda lager, av vilka några utförde en "falsning" som tillämpade samma filter på varje del av en bild. Varje konvolution fångade olika viktiga funktioner i bilden, till exempel kanter. De mer grundläggande funktionerna fångades i de tidiga stadierna av nätverket och de mer komplexa funktionerna i de djupare stadierna, som i primaternas visuella system. När ett konvolutionellt neuralt nätverk (CNN) som detta tränas för att klassificera bilder börjar det med slumpmässigt initierade värden för sina filter och lär sig de korrekta värdena som behövs för den aktuella uppgiften.

Teamets fyra lager CNN kunde känna igen åtta kategorier av objekt (djur, båtar, bilar, stolar, ansikten, frukter, flygplan och bord) avbildade i 5 760 fotorealistiska 3D-bilder. De avbildade föremålen varierade mycket i pose, position och skala. Trots det matchade det djupa nätet prestanda för människor, som är extremt bra på att känna igen objekt trots variation.

Okänd för Yamins skulle en revolution som växer fram i datorsynvärlden också oberoende validera det tillvägagångssätt som han och hans kollegor hade. Strax efter att de var färdiga med att bygga sitt CNN gjorde ett annat CNN vid namn AlexNet sig ett namn vid en årlig bildigenkänningstävling. Även AlexNet var baserat på en hierarkisk bearbetningsarkitektur som fångade grundläggande visuella funktioner i sina tidiga skeden och mer komplexa funktioner i högre stadier, det hade tränats på 1,2 miljoner märkta bilder som presenterade tusen kategorier av objekt. I tävlingen 2012 dirigerade AlexNet alla andra testade algoritmer: Enligt tävlingens statistik var AlexNets felprocent bara 15,3%, jämfört med 26,2% för sin närmaste konkurrent. Med AlexNets seger blev djupa nät legitima utmanare inom AI och maskininlärning.

Yamins och andra medlemmar av DiCarlos team var dock ute efter en neurovetenskaplig utdelning. Om deras CNN efterliknade ett visuellt system undrade de, kan det förutsäga neurala svar på en ny bild? För att ta reda på bestämde de först hur aktiviteten i uppsättningar av artificiella neuroner i deras CNN motsvarade aktivitet på nästan 300 platser i den ventrala visuella strömmen av två rhesus -makaker.

Sedan använde de CNN för att förutsäga hur dessa hjärnplatser skulle reagera när aporna visades bilder som inte var en del av träningsuppsättningen. "Vi fick inte bara bra förutsägelser ... utan det finns också en sorts anatomisk konsistens," sa Yamins: De tidiga, mellanliggande och sena skikten av CNN förutspådde beteendet i de tidiga, mellanliggande och högre hjärnområdena, respektive . Form följde funktion.

Kanwisher minns att han blev imponerad av resultatet när det publicerades 2014. "Det säger inte att enheterna i det djupa nätverket individuellt beter sig som neuroner biofysiskt", sa hon. "Ändå finns det chockerande specificitet i den funktionella matchningen."


Hur hjärnan förändras när man behärskar en ny färdighet

Att behärska en ny färdighet - oavsett om det är en sport, ett instrument eller ett hantverk - tar tid och utbildning. Även om det är underförstått att en frisk hjärna kan lära sig dessa nya färdigheter, är hur hjärnan förändras för att utveckla nya beteenden ett relativt mysterium. Mer exakt kunskap om detta underliggande neurala kretslopp kan så småningom förbättra livskvaliteten för individer som har drabbats av hjärnskada genom att de lättare kan lära om vardagliga uppgifter.

Forskare från University of Pittsburgh och Carnegie Mellon University publicerade nyligen en artikel i PNAS som avslöjar vad som händer i hjärnan när eleverna går från nybörjare till experter. De upptäckte att nya neurala aktivitetsmönster uppstår med långsiktigt lärande och etablerade ett orsakssamband mellan dessa mönster och nya beteendeförmågor.

Forskningen utfördes som en del av Center for the Neural Basis of Cognition, ett tvärinstitutionellt forsknings- och utbildningsprogram som utnyttjar Pitts styrkor inom grundläggande och klinisk neurovetenskap och bioteknik, tillsammans med CMUs inom kognitiv och beräkningsneurovetenskap.

Projektet leddes gemensamt av Aaron Batista, docent i bioteknik vid Pitt Byron Yu, docent i elektro- och datateknik och biomedicinsk teknik vid CMU och Steven Chase, docent i biomedicinsk teknik och Neurovetenskapsinstitutet vid CMU. Arbetet leddes av Pitt bioingenjör postdoktorand Emily Oby.

"Vi använde ett hjärn-dator-gränssnitt (BCI), som skapar en direkt koppling mellan vårt ämnes neurala aktivitet och rörelsen av en datormarkör," sa Oby. "Vi registrerade aktiviteten hos cirka 90 neurala enheter i armregionen av den primära motoriska cortexen hos Rhesusapor när de utförde en uppgift som krävde att de flyttade markören för att passa in i mål på monitorn."

För att avgöra om aporna skulle bilda nya neurala mönster som de lärde sig, uppmuntrade forskargruppen djuren att försöka en ny BCI-färdighet och jämförde sedan dessa inspelningar med de redan existerande neurala mönstren.

"Vi presenterade först apan med vad vi kallar en "intuitiv kartläggning" från deras neurala aktivitet till markören som fungerade med hur deras neuroner naturligt eldar och som inte krävde någon inlärning, säger Oby. "Vi inducerade sedan lärande genom att introducera en färdighet i form av en ny kartläggning som krävde att försökspersonen skulle lära sig vilka neurala mönster de behöver producera för att flytta markören."

Liksom att lära sig de flesta färdigheter, tog gruppens BCI-uppgift flera träningspass och lite coachning längs vägen.

"Vi upptäckte att efter en vecka kunde vårt ämne lära sig att styra markören", sa Batista. "Detta är slående eftersom vi genom konstruktionen visste från början att de inte hade de neurala aktivitetsmönster som krävdes för att utföra denna färdighet. Visst nog, när vi tittade på den neurala aktiviteten igen efter att ha lärt oss såg vi att nya mönster av neural aktivitet hade dök upp, och dessa nya mönster är det som gjorde det möjligt för apan att utföra uppgiften. "

Dessa fynd tyder på att processen för människor att bemästra en ny färdighet också kan innebära att nya neurala aktivitetsmönster skapas.

"Även om vi tittar på den här specifika uppgiften i djurämnen, tror vi att det är kanske så hjärnan lär sig många nya saker", sa Yu. "Tänk på att lära dig fingerfärdigheten som krävs för att spela ett komplext stycke på piano. Innan du tränar kanske din hjärna ännu inte kan generera lämpliga aktivitetsmönster för att producera önskade fingerrörelser."

"Vi tror att utökad praktik bygger nya synaptiska anslutningar som leder direkt till utvecklingen av nya aktivitetsmönster som möjliggör nya förmågor", säger Chase. "Vi tror att detta arbete gäller alla som vill lära sig-oavsett om det är en förlamad individuell inlärning av ett hjärna-datorgränssnitt eller en strokeöverlevande som vill återfå normal motorisk funktion. Om vi ​​kan titta direkt på hjärnan under motoriska när vi lär oss tror vi att vi kan utforma neurofeedback -strategier som underlättar processen som leder till bildandet av nya neurala aktivitetsmönster. "


Hjärnans nätverk driver förändringar i medvetandet

Sammanfattning: Ett hjärnnätverk bestående av thalamus, främre och bakre cingulära cortex och vinkelgyri var inblandad i förlusten och återgången av medvetande under både anestesi och naturlig sömn.

Källa: SfN

Förlusten och återgången av medvetandet är kopplat till samma nätverk av hjärnregioner för både sömn och anestesi, enligt ny forskning publicerad i Journal of Neuroscience.

Den biologiska grunden för medvetandet har förvirrat forskare i århundraden. Våra experimentella tekniker vacklar, eftersom effekterna av sömn och bedövningsmedel förändrar hjärnans aktivitet bortom förändringar i medvetandet.

Dessutom avslöjar inte alltid beteendet någons medvetenhetstillstånd. En person som inte svarar kan fortfarande vara medveten om sin omgivning (ansluten), eller omedveten men fortfarande uppleva sin inre värld (bortkopplad).

Scheinin et al. sökte nätverk associerade med mänskligt medvetande genom att mäta hjärnaktiviteten hos vuxna män med PET när de somnade och gick under narkos. Forskargruppen väckte deltagarna under experimentet för att intervjua dem och bekräfta deras anslutningstillstånd.

Skillnader i hjärnaktivitet mellan anslutna och frånkopplade medvetandetillstånd studerade med positronemissionstomografi (PET). Aktiviteten hos thalamus, främre (ACC) och posterior cingulate cortices (PCC) och bilateral angular gyri (AG) visar de mest konsekventa föreningarna med medvetandets tillstånd (A = generell anestesi, B = sömn). Samma hjärnstrukturer, som avaktiveras när medvetandetillståndet övergår till avkopplad i allmänbedövning eller naturlig sömn (svala färger i de vänstra kolumnerna), återaktiveras när man återfår ett anslutet tillstånd vid uppkomst från anestesi (varma färger i de högra kolumnerna) . Upphovsman: Scheinin et al., JNeurosci 2020

Förändringar i anknytning motsvarade aktiviteten i ett nätverk som består av regioner djupt inne i hjärnan: thalamus, främre och bakre cingulate cortex och gyri kantig. Dessa regioner uppvisade mindre blodflöde när en deltagare tappade anslutning och mer blodflöde när de återfick det.

Mönstret gällde för både sömn och anestesi, vilket indikerar att förändringarna motsvarade anknytning snarare än effekterna av sömn eller droger, och att nätverket kan vara absolut nödvändigt för mänskligt medvetande.

Om denna medvetandeforskningsnyhet

Källa: SfN
Kontakt: Calli McMurray – SfN
Bild: Bilden krediteras Scheinin et al., JNeurosci 2020

Ursprunglig forskning: Stängd åtkomst.
“Foundations of Human Consciousness: Imaging the Twilight Zone ” av Annalotta Scheinin, Oskari Kantonen, Michael Alkire, Jaakko Långsjö, Roosa E Kallionpää, Kaike Kaisti, Linda Radek, Jarkko Johansson, Nils Sandman, Mikko Nyman, Mika Scheinin, , Antti Revonsuo, Katja Valliand Harry Scheinin. Journal of Neuroscience

Hur behandlar din hjärna känslor? Svar kan hjälpa till att hantera ensamhetsepidemi

Foundations of Human Consciousness: Imaging the Twilight Zone

Vad händer i hjärnan när medveten medvetenhet om den omgivande världen bleknar? Vi manipulerade medvetandet i två experiment i en grupp friska män och mätte hjärnaktivitet med positronemissionstomografi. Mätningar gjordes under vakenhet, eskalerande och konstanta nivåer av två bedövningsmedel (experiment 1, n = 39) och under sömnberövad vakenhet och icke-snabb ögonrörelse (experiment 2, n = 37). I experiment 1 randomiserades försökspersonerna till att få antingen propofol eller dexmedetomidin tills de inte svarade. I båda experimenten tillämpades tvångsuppvaknanden för att uppnå snabb återhämtning från ett tillstånd som inte reagerade på ett responsivt tillstånd, följt av omedelbara och detaljerade intervjuer av subjektiva upplevelser under det föregående svarande tillståndet. Svarslöshet betecknade sällan medvetslöshet, eftersom majoriteten av försökspersonerna hade internt genererade upplevelser. Oönskade bedövningstillstånd och verifierade sömnstadier, där en efterföljande rapport om mentalt innehåll inte innehöll några tecken på medvetenhet om omvärlden, indikerade ett frånkopplat tillstånd. Funktionell hjärnavbildning som jämför responsiv och ansluten mot.icke -reagerande och frånkopplade medvetandetillstånd under konstant bedövningsexponering avslöjade att talamusaktivitet, cingulära cortex och kantiga gyri är grundläggande för mänskligt medvetande. Dessa hjärnstrukturer påverkades oberoende av det farmakologiska medlet, läkemedelskoncentrationen och förändringsriktningen i medvetandetillståndet. Analoga fynd erhölls när medvetandet reglerades av fysiologisk sömn. Tillståndsspecifika fynd var distinkta och skiljbara från de övergripande effekterna av interventionerna, som inkluderade utbredd depression av hjärnaktivitet över kortikala områden. Dessa fynd identifierar ett centralt kärnhjärnätverk som är avgörande för mänskligt medvetande.

BETYDNINGSINNEHÅLL

Att försöka förstå den biologiska grunden för mänskligt medvetande är för närvarande en av neurovetenskapens största utmaningar. Medan förlusten och återgången av medvetandet som regleras av bedövningsmedel och fysiologisk sömn används som modellsystem i experimentella studier av medvetande, har tidigare forskningsresultat förvirrats av läkemedelseffekter, genom att förvirra beteendemässig "oresponsivitet" och internt genererat medvetande och genom att jämföra hjärnan aktivitetsnivåer över tillstånd som skiljer sig åt i flera andra avseenden än bara medvetandet. Här presenterar vi noggrant utformade studier som övervinner många tidigare konfounders och för första gången avslöjar de neurala mekanismer som ligger bakom mänskligt medvetande och dess frånkoppling från beteenderespons, både under anestesi och under normal sömn, och i samma studieämnen.


Neural Network Basics

Innan vi kan arbeta med konvolutionella neurala nätverk måste vi först förstå grunderna i neurala nätverk. Vi kommer att granska:

• Artificiella neurala nätverk och deras relation till biologi.
• Den banbrytande Perceptron -algoritmen.
• Algoritmen för återförökning och hur den kan användas för att träna flera lager neurala nätverk effektivt.
• Hur man tränar neurala nätverk med hjälp av Keras-biblioteket.

När du är klar kommer du att ha en stark förståelse för neurala nätverk och kunna gå vidare till de mer avancerade Convolutional Neural Networks.


Forskning inom sensorbearbetning (1960- och 1970-talet)

Dr Hubel och Dr Wiesel arbetade med området sensorisk bearbetning. I vilken de satte in en mikroelektrod i den primära syncentrum av en delvis bedövad katt så att hon inte kan röra sig och visade linjebilderna i olika vinklar mot katten.

Genom mikroelektroden fann de att vissa neuroner eldade mycket snabbt genom att titta på linjerna i specifika vinklar, medan andra neuroner svarade bäst på linjerna i olika vinklar. Några av dessa neuroner reagerade olika på ljusa och mörka mönster, medan andra neuroner reagerade på att upptäcka rörelse i viss riktning.

Detta arbete är primärt för konceptet CNN.

Var finns visuell cortex i människans hjärna?

Visual Cortex är den del av hjärnbarken i hjärnan som bearbetar den visuella informationen. Visuella nerver från ögonen går rakt till den primära visuella cortexen. Baserat på de strukturella och funktionella egenskaperna är den indelad i olika områden, som visas i följande bild:

Visual Cortex: funktioner

Den visuella informationen överförs från ett kortikalt område till ett annat och varje kortikalt område är mer specialiserat än det förra. Neuronerna i det specifika fältet svarar bara på de specifika handlingarna.

Några av dem med sina funktioner är följande:

  1. Primär visuell cortex eller V1: Den bevarar rumslig placering av visuell information, dvs. orientering av kanter och linjer. Det är den första som tar emot signalerna från vad ögonen har fångat.
  2. Secondary Visual Cortex eller V2 : Den tar emot starka framkopplingsanslutningar från V1 och skickar starka anslutningar till V3, V4 och V5. Det skickar också ett starkt återkopplingsnätverk till V1. Dess funktion är att samla in rumslig frekvens, storlek, färg och form på objektet.
  3. Tredje Visual Cortex eller V3: Den tar emot ingångar från V2. Det hjälper till att bearbeta global rörelse och ger fullständig visuell representation.
  4. V4: Den tar också emot ingångar från V2. Den känner igen enkla geometriska former och bildar också igenkänning av objekt. Den är inte inställd för komplexa objekt som mänskliga ansikten.
  5. Middle Temporal (MT) Visual Area eller V5: Det används för att detektera hastighet och riktning för rörligt visuellt objekt, dvs rörelseuppfattning. Den upptäcker också rörelse av komplexa visuella funktioner. Den tar emot direktanslutningar från V1.
  6. Dorsomedial (DM) Area eller V6: används för att detektera bredfälts- och självrörelsestimulering. Liksom V5 tar den också emot direktanslutningar från V1. Den har extremt skarpt val av orienteringen av visuella konturer.

Kartläggning till CNN

Ovanstående visuella cortex fungerar som lager av CNN. Låter oss ta scenarier som kantdetektering, ansiktsigenkänning, upptäckt av olika varianter (dvs. roterad ansiktsigenkänning, stor eller liten ansiktsigenkänning)

Kantdetektering : Genom att använda faltningsoperation på bild med Sobel Kernel kan vi upptäcka kanterna. Titta på följande bild:

Max poolning : Den används för att detektera var objekten finns i bilden baserat på utdata från varje kluster av neuron i föregående lager. Eftersom ansiktet upptäcks var det än är beror det inte på ansiktets plats i bilden.

ReLU (Rektifierad linjär enhet): Eftersom den mänskliga hjärnan aldrig slutar lära sig, lär den (hjärnan) alltid av observationerna och erfarenheterna, dvs de input som den tar emot från sinnesorganen, används vid någon eller annan punkt men inlärningen blir aldrig "Noll". För att lägga till den här funktionen i neurala nätverk används ReLU. Aktiveringsfunktionen är: f(x) = max(0,x). För alla aktiveringsfunktioner måste vi kunna ta derivatan av den funktionen och med ReLU kan vi göra det. Men derivatet vid noll är inte definierat för ReLU. På grund av noll kan vi få problemet med död aktiveringstillstånd. Detta innebär att det inte kommer att ske någon viktförändring, vilket betyder ingen inlärning. Men hos människor händer det inte ofta. För att hantera detta problem används begreppet Leaky ReLU.

Läckande ReLU: Funktionen är: f(x) = if (x > 0) sedan x else 0,01*x. Med detta undviker vi problemet med döda stater. Det är att nätverket kan fortsätta att lära sig men det kan möta problemet med försvinnande gradient.

Dataförstoring: Vi människor kan känna igen ansiktet även om det är inverterat, roterat, vänt, reflekterat eller skevt. Med Data Augmentation -teknik kan vi konvertera en enda bild till olika typer av bilder och använda de nybildade bilderna för att träna CNN. Efter det kommer CNN att kunna upptäcka invariansbaserad data som roterade ansikten, stora och små ansikten, vända ansikten etc (dvs objekten kommer att kännas igen även om de inte är i sin ursprungliga position).

Avhopp : Eldar alla neuroner som finns i vår hjärna för att lära sig något? Svaret är NEJ''. Det är inte nödvändigt att de eldar på ett linjärt sätt eller i backpropagation. Vissa av neuronerna kan förbli inaktiva i en fas av inlärning och kan bli aktiva i en annan fas av inlärning eller vice versa. Detta ger neuronerna oberoende inlärning. För att ha detta i nätverken introduceras begreppet avhopp. Efter applicering av bortfall med sannolikhet p, tas de slumpmässigt utvalda individuella noderna/neuronerna bort från den epok för inlärningsprocess och respektive inkommande och utgående kanter tas också bort. Det används mycket för att undvika överanpassning i nätverket.

Återstående nätverk (ResNet): Som vi har sett att V5 och V6 tar emot direktanslutningar från V1 på samma sätt som Residual Network fungerar. Det hoppar över anslutningar och /eller hoppar över lagren. Det görs för att undvika problemet med Vanishing Gradient.


A Primer: Artificiell intelligens kontra neurala nätverk

Jef Akst
1 maj 2019

OVAN: ÄNDRAD FRÅN © ISTOCK.COM, Bannosuke

Termen "artificiell intelligens" går tillbaka till mitten av 1950-talet, när matematikern John McCarthy, allmänt erkänd som AI:s fader, använde den för att beskriva maskiner som gör saker som folk kan kalla intelligenta. Han och Marvin Minsky, vars arbete var lika inflytelserik inom AI-området, organiserade Dartmouth Summer Research Project on Artificial Intelligence 1956. Några år senare, med McCarthy på fakulteten, grundade MIT sitt Artificial Intelligence Project, senare AI Lab . Det slogs samman med Laboratory for Computer Science (LCS) 2003 och döptes om till Computer Science and Artificial Intelligence Laboratory, eller CSAIL.

Nu är en allestädes närvarande del av det moderna samhället, AI hänvisar till vilken maskin som helst som kan replikera mänskliga kognitiva färdigheter, såsom problemlösning. Under andra hälften av 1900-talet uppstod maskininlärning som en kraftfull AI-metod som gör att datorer, som namnet antyder, kan lära sig av indata utan att behöva programmeras explicit. En teknik som används vid maskininlärning är ett neuralt nätverk som hämtar inspiration från hjärnans biologi och förmedlar information mellan skikt av så kallade artificiella neuroner. Det allra första artificiella neurala nätverket skapades av Minsky som doktorand 1951 (se "Learning Machine, 1951"), men tillvägagångssättet var begränsat till en början, och även Minsky själv vände snart sitt fokus till andra metoder för att skapa intelligenta maskiner. Under de senaste åren har neurala nätverk gjort comeback, särskilt för en form av maskininlärning som kallas djupinlärning, som kan använda mycket stora, komplexa neurala nätverk.


Moderna metoder i naturproduktkemi

Yi-Ping Phoebe Chen , . Paolo Carloni, i Omfattande naturprodukter II, 2010

9.15.3.2.2 Neurala nätverk

Neurala nätverk är parallella och distribuerade informationsbehandlingssystem som är inspirerade och härledda från biologiska inlärningssystem som mänskliga hjärnor. Arkitekturen för neurala nätverk består av ett nätverk av olinjära informationsbehandlingselement som normalt är arrangerade i lager och körs parallellt. Detta skiktade arrangemang för nätverket kallas topologin för ett neuralt nätverk. Dessa olinjära informationsbehandlingselement i nätverket definieras som neuroner, och sammankopplingarna mellan dessa neuroner i nätverket kallas synaps eller vikter. En inlärningsalgoritm måste användas för att träna ett neuralt nätverk så att den kan bearbeta information på ett användbart och meningsfullt sätt.

De flesta neurala nätverk tränas med övervakade träningsalgoritmer. Detta innebär att önskad utmatning måste tillhandahållas för varje ingång som används i träningen. Med andra ord är både ingångar och utgångar kända. I den övervakade utbildningen bearbetar ett nätverk indata och jämför sina faktiska utgångar med de förväntade utgångarna. Fel sprids sedan tillbaka genom nätverket, och vikterna som styr nätverket justeras med avseende på de fel som sprids tillbaka. Denna process upprepas tills felen minimeras, det betyder att samma uppsättning data bearbetas många gånger då vikterna mellan lagren i nätverket förfinas under träningen av nätverket. Denna algoritm för övervakad inlärning kallas ofta för en back-propagationsalgoritm, vilket är användbart för att träna multipla-lagers preceptron neurala nätverk (MLP). Bild 6 demonstrerar arkitekturen för ett övervakat neuralt nätverk, som inkluderar tre lager, nämligen ingångslager, utdatalager och ett dolt mellanlager.

Figur 6. En provstruktur av övervakat neuralt nätverk.

Neurala nätverk används i en mängd olika tillämpningar inom mönsterklassificering, språkbehandling, komplexa systemmodellering, kontroll, optimering och förutsägelse. 92 Neurala nätverk har också använts aktivt i många bioinformatiska tillämpningar såsom DNA-sekvensförutsägelse, förutsägelse av sekundär proteinstruktur, klassificering av genuttrycksprofiler och analys av genuttrycksmönster. 93 Neuralt nätverk har tillämpats i stor utsträckning inom biologin sedan 1980 -talet. 94 Till exempel Stormo et al. 95 rapporterade förutsägelse av translationsinitieringsställena i DNA-sekvenser. Baldi och Brunak 96 använde applikationer inom biologi för att förklara teorin om neurala nätverk. Begreppen neuralt nätverk som används vid mönsterklassificering och signalbehandling har framgångsrikt tillämpats inom bioinformatik. Wu et al. 93,97–99 tillämpade de neurala nätverken för att klassificera proteinsekvenser. Wang et al. 100 applicerade neurala nätverk för proteinsekvensklassificering genom att extrahera egenskaper från proteindata och använda dem i kombination med Bayesian neurala nätverk (BNN). Qian och Sejnowski 101 förutspådde proteins sekundära struktur med hjälp av neurala nätverk. Neurala nätverk har också använts för analys av genuttrycksmönster som ett alternativ till hierarkiska klustermetoder. 75, 100, 102, 103 Narayanan et al. 104 demonstrerade tillämpningen av de enda lager neurala nätverk för att analysera genuttryck.

Förutom SVM och neurala nätverk finns det också maskininlärningsmetoder för genval, till exempel 'diskriminera analys', som skiljer en vald datauppsättning från resten av data och 'k-närmaste granne (KNN) algoritm', som är baserad på en avståndsfunktion för par av observationer, såsom det euklidiska avståndet. I denna klassificeringshypotes beräknas k närmaste grannar till en uppsättning träningsdata. Likheterna mellan ett prov av testdata med KNN aggregeras sedan enligt grannklassen, och testprovet tilldelas den mest liknande klassen. En av fördelarna med KNN är att den är väl lämpad för multimodala klasser eftersom dess klassificeringsbeslut baseras på en liten grannskap med liknande objekt. Så även om målklassen består av objekt vars oberoende variabler har olika egenskaper för olika delmängder (multimodal), kan det ändå leda till god noggrannhet. En stor nackdel med likhetsmåttet som används i KNN är att det använder alla funktioner lika vid beräkningslikheter. Detta kan leda till dåliga likhetsmått och klassificeringsfel, när endast en liten delmängd av funktionerna är användbar för klassificering. Li et al. 105 använde framgångsrikt ett tillvägagångssätt som kombinerar en genetisk algoritm (GA) och KNN-metoden för att identifiera gener som gemensamt kan skilja mellan olika klasser av prover.


Gränser för lärande

Antalet olika mönster ett neuronnätverk kan lära sig bestäms av antalet neuroner och anslutningar. Detta mycket lilla nätverk kan bara lära sig 2 eller 3 distinkta mönster innan det börjar bli förvirrat. Om du försöker lära det 4 eller 5 mönster kommer det ofta att komma ihåg fel mönster, eller till och med ett falskt mönster som du aldrig lärde det. That's where the enormous complexity of the brain comes in your brain has at least five billion times as many connections as this little program, so your ability to learn and remember is correspondingly greater.

But like a singing dog, it's not how well it sings but the fact it sings at all. With less than 250 lines of BASIC, we can make the Commodore 64 play the brain's game, pattern recognition, the brain's way, by simulating a neuron network. It can learn simply by being shown patterns and recall a similar pattern when shown something it's never seen before. Research into neuron networks is one of the most exciting and rapidly expanding fields in science today, bringing together computer science, psychology, mathematics, and biology to discover how the brain accomplishes the remarkable things it does. This research may lead to computers that can recognize faces, understand speech, and answer complicated questions. But more importantly, we may find answers to questions as old as mankind: &ldquoWhat is thought?&rdquo, &ldquoWhat is memory?&rdquo, and &ldquoHow do people reason?&rdquo. That your home computer can help you understand and experiment with such matters is testimony to the power latent within it.


Titta på videon: But what is a neural network? Chapter 1, Deep learning (December 2022).