Date: 19 Luglio 2000
V
=
;
S
=
=
;
: il neurone al momento t è eccitato,
quindi produce un output;
: il neurone al momento t non è eccitato,
quindi non produce alcun output;
: la sinapsi che connette i due neuroni è
eccitativa, ovvero favorisce il passaggio di informazioni;
: la sinapsi è è inibitoria.
Il modello di McCulloch-Pitts
Graded Response Neurons. Si assume che la trasmissione
del messaggio avvenga istantaneamente,
, e si trascurano i termini direset,
assumendo che le fluttuazioni del potenziale successive alla
trasmissione del messaggio siano irrilevanti:
Coupled oscillators.
=1024+128+64+16+4+2+1=1239
con i neuroni di
McCulloch-Pitts?
, definiamo
l'operatore
, che dice quando due variabili arbitrarie
hanno lo stesso valore:
, una macchina
che la esegue può essere costruita, dati
e il
vettore input
Che in termini delle operazioni logiche SAME,
,
e
, si esprime:
e
e
(
).
|
|
![]() |
![]() |
![]() |
|
| 0 | 0 | 0 | -3/2 | 0 |
| 0 | 1 | 0 | -1/2 | 0 |
| 1 | 0 | 0 | -1/2 | 0 |
| 1 | 1 | 1 | 1/2 | 1 |
|
|
![]() |
![]() |
![]() |
|
| 0 | 0 | 0 | -1/2 | 0 |
| 0 | 1 | 1 | 1/2 | 1 |
| 1 | 0 | 1 | 1/2 | 1 |
| 1 | 1 | 1 | 3/2 | 1 |
|
|
![]() |
![]() |
|
| 0 | 1 | 1/2 | 1 |
| 1 | 0 | -1/2 | 0 |
Apprendimento
Regola di Hebb: le informazioni vengono immagazzinate
sotto forma di "forza" delle sinapsi che connettono i neuroni;
apprendere significa modificare tali sinapsi.
Il Perceptrone
ed
si
lascia tutto inalterato, altrimenti si modificano i parametri
caratterizzanti il neurone studente
|
|
![]() |
![]() |
![]() |
![]() |
| 0 | 0 | 0 | 1 | 1 |
| 1 | 0 | 0 | 0 | 0 |
|
|
![]() |
![]() |
![]() |
![]() |
| 0 | 0 | 0 | 1 | 1 |
| 1 | 1 | 1 | 1 | 1 |
un solo neurone non basta, ad esempio, per eseguire
XOR(x,y):
|
|
XOR(x,y) | |
| 0 | 0 | 0 |
| 0 | 1 | 1 |
| 1 | 0 | 1 |
| 1 | 1 | 0 |
tali che:
L'insieme
dei possibili vettori input corrisponde
ai vertici dell'ipercubo unitario in
, mentre il neurone
che esegue l'operazione
, 16 modi di colorare
i quattro vertici del quadrato:
|
|
![]() |
|
| 0 | 0 | 0 |
| 0 | 1 | 1 |
| 1 | 0 | 1 |
| 1 | 1 | 0 |
|
|
![]() |
|
| 0 | 0 | 1 |
| 0 | 1 | 0 |
| 1 | 0 | 0 |
| 1 | 1 | 1 |
| Input | I strato | II strato
![]() |
![]() |
![]() |
|
| Input | I Strato
![]() |
II Strato
![]() |
![]() |
||
![]() |
![]() |
|
![]() |
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
0 |
![]() |
![]() |
![]() |
1 |
![]() |
![]() |
![]() |
1 |
![]() |
![]() |
![]() |
0 |
| Input | I strato | II strato
![]() |
![]() |
![]() |
|
:
, interpretata come
una operazione effettuata sulla variabile
qualsiasi.
: torna al passo 1
: modifica parametri e torna al passo 1
.
Passo 1. Separabiltà lineare:
,
Passo 3. Contraddizione:
Schwartz
Dopo
modifiche:
:
Dopo quanto converge la procedura di apprendimento?
, otteniamo:
,
probabilità che il vettore
.
Come funziona l'apprendimento nelle "multilayer
feed-forward networks"?
è un intorno del miglior neurone,
di raggio
, al passo