Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Inteligentes
Aula
2
-
13/08/2010
Exemplos
Agente
humano
Sensores:
Olhos,
ouvidos
e
outros
rgos.
Atuadores:
Mos,
pernas,
boca
e
outras
partes
do
corpo.
Agente
robPco
Sensores:
cmeras
e
detectores
de
infravermelho.
Atuadores:
vrios
motores.
Agente
de
soTware
Sensores:
entrada
do
teclado,
contedo
de
arquivos
e
pacotes
vindos
da
rede.
Atuadores:
tela,
disco,
envio
de
pacotes
pela
rede.
Aula
2
-
13/08/2010
Mapeando
percepes
em
aes
Sequncia
de
percepes:
histria
completa
de
tudo
que
o
agente
percebeu.
O
comportamento
do
agente
dado
abstratamente
pela
funo
do
agente:
[f:
P*
A]
onde
a
P*
uma
sequncia
de
percepes
e
A
uma
ao.
O
programa
do
agente
roda
em
uma
arquitetura
]sica
para
produzir
f.
Agente
=
arquitetura
+
programa.
Aula
2
-
13/08/2010
Exemplo:
O
mundo
do
aspirador
de
p
Aula
2
-
13/08/2010
Uma
funo
para
o
agente
aspirador
de
p
Sequncia
de
Percepes
Ao
[A,
Limpo]
Direita
[A,
Sujo]
Aspirar
[B,
Limpo]
Esquerda
[B,
Sujo]
Aspirar
[A,
Limpo],
[A,
Limpo]
Direita
[A,
Limpo],
[A,
Sujo]
Aspirar
...
[A,
Limpo],
[A,
Limpo],
[A,
Limpo]
Direita
[A,
Limpo],
[A,
Limpo],
[A,
Sujo]
Aspirar
...
Aula
2
-
13/08/2010
Agentes
Racionais
Agente
racional:
para
cada
sequncia
de
percepes
possveis
deve
selecionar
uma
ao
que
se
espera
venha
a
maximizar
sua
medida
de
desempenho,
dada
a
evidncia
fornecida
pela
seqncia
de
percepes
e
por
qualquer
conhecimento
interno
do
agente.
Exerccio:
para
que
medida
de
desempenho
o
agente
aspirador
de
p
racional?
Aula
2
-
13/08/2010
Agentes
Racionais
Racionalidade
diferente
de
perfeio.
A
racionalidade
maximiza
o
desempenho
esperado,
enquanto
a
perfeio
maximiza
o
desempenho
real.
A
escolha
racional
s
depende
das
percepes
at
o
momento.
Mas
os
agentes
podem
(e
devem!)
executar
aes
para
coleta
de
informaes.
Um
Ppo
importante
de
coleta
de
informao
a
explorao
de
um
ambiente
desconhecido.
O
agente
tambm
pode
(e
deve!)
aprender,
ou
seja,
modicar
seu
comportamento
dependendo
do
que
ele
percebe
ao
longo
do
tempo.
Nesse
caso
o
agente
chamado
de
autnomo.
Um
agente
que
aprende
pode
ter
sucesso
em
uma
ampla
variedade
de
ambientes.
Aula
2
-
13/08/2010
PEAS
Ao
projetar
um
agente,
a
primeira
etapa
deve
ser
sempre
especicar
o
ambiente
de
tarefa.
Performance
=
Medida
de
Desempenho
Environment
=
Ambiente
Actuators
=
Atuadores
Sensors
=
Sensores
Aula
2
-
13/08/2010
Exemplo
de
PEAS:
Motorista
de
Txi
AutomaPzado
Medida
de
desempenho:
viagem
segura,
rpida,
sem
violaes
s
leis
de
trnsito,
confortvel
para
os
passageiros,
maximizando
os
lucros.
Ambiente:
ruas,
estradas,
outros
veculos,
pedestres,
clientes.
Atuadores:
direo,
acelerador,
freio,
embreagem,
marcha,
seta,
buzina.
Sensores:
cmera,
sonar,
velocmetro,
GPS,
hodmetro,
acelermetro,
sensores
do
motor,
teclado
ou
microfone.
Aula
2
-
13/08/2010
Exemplo
de
PEAS:
Sistema
de
DiagnsPco
Mdico
Medida
de
desempenho:
paciente
saudvel,
minimizar
custos,
processos
judiciais.
Ambiente:
paciente,
hospital,
equipe.
Atuadores:
exibir
na
tela
perguntas,
testes,
diagnsPcos,
tratamentos.
Sensores:
entrada
pelo
teclado
para
sintomas,
descobertas,
respostas
do
paciente.
Aula
2
-
13/08/2010
Exemplo
de
PEAS:
Rob
de
seleo
de
peas
Medida
de
desempenho:
porcentagem
de
peas
em
bandejas
corretas.
Ambiente:
correia
transportadora
com
peas;
bandejas.
Atuadores:
brao
e
mo
arPculados.
Sensores:
cmera,
sensores
angulares
arPculados.
Aula
2
-
13/08/2010
Exemplo
de
PEAS:
Instrutor
de
Ingls
InteraPvo
Medida
de
desempenho:
maximizar
nota
de
aluno
em
teste.
Ambiente:
conjunto
de
alunos.
Atuadores:
exibir
exerccios,
sugestes,
correes.
Sensores:
entrada
pelo
teclado.
Aula
2
-
13/08/2010
Propriedades
de
ambientes
de
tarefa
Completamente
observvel
(versus
parcialmente
observvel)
Os
sensores
do
agente
do
acesso
ao
estado
completo
do
ambiente
em
cada
instante.
Todos
os
aspectos
relevantes
do
ambiente
so
acessveis.
DeterminsPco
(versus
estocsPco)
O
prximo
estado
do
ambiente
completamente
determinado
pelo
estado
atual
e
pela
ao
executada
pelo
agente.
Se
o
ambiente
determinsPco
exceto
pelas
aes
de
outros
agentes,
dizemos
que
o
ambiente
estratgico.
Aula
2
-
13/08/2010
Propriedades
de
ambientes
de
tarefa
Episdico
(versus
sequencial)
A
experincia
do
agente
pode
ser
dividida
em
episdios
(percepo
e
execuo
de
uma
nica
ao).
A
escolha
da
ao
em
cada
episdio
s
depende
do
prprio
episdio.
EstPco
(versus
dinmico)
O
ambiente
no
muda
enquanto
o
agente
pensa.
O
ambiente
semidinmico
se
ele
no
muda
com
a
passagem
do
tempo,
mas
o
nvel
de
desempenho
do
agente
se
altera.
Aula
2
-
13/08/2010
Propriedades
de
ambientes
de
tarefa
Discreto
(versus
conqnuo)
Um
nmero
limitado
e
claramente
denido
de
percepes
e
aes.
Agente
nico
(versus
mulP-agente)
Um
nico
agente
operando
sozinho
no
ambiente.
No
caso
mulP-agente
podemos
ter
MulP-agente
cooperaPvo
MulP-agente
compePPvo
Aula
2
-
13/08/2010
Exemplo
Xadrez
com
Xadrez
sem
Direo
de
relgio
relgio
Txi
Completamente
observvel
Sim
Sim
No
DeterminsPco
Sim
Sim
No
Episdico
No
No
No
EstPco
Semi
Sim
No
Discreto
Sim
Sim
No
Agente
nico
No
No
No
Aula
2
-
13/08/2010
Programas
e
funes
de
agentes
Um
agente
completamente
especicado
pela
funo
de
agente
que
mapeia
sequncias
de
percepes
em
aces.
Uma
nica
funo
de
agente
(ou
uma
nica
classe
de
funes
equivalentes)
racional.
ObjePvo:
encontrar
uma
maneira
de
representar
a
funo
racional
do
agente
concisamente.
Aula
2
-
13/08/2010
Agente
Dirigido
por
Tabela
Funo AGENTE-DIRIGIDO-POR-TABELA(percepo) retorna
uma ao
Variveis estticas:
percepes, uma seqncia, inicialmente vazia
tabela, uma tabela de aes, indexada por seqncias
de percepes, de incio completamente especificada
anexar percepo ao fim de percepes
ao ACESSAR(percepes, tabela)
retornar ao
Desvantagens:
Tabela
gigante
(xadrez
=
10150
entradas)
Tempo
longo
para
construir
a
tabela
No
tem
autonomia
Mesmo
com
aprendizado
demoraria
muito
para
aprender
a
tabela.
Aula
2
-
13/08/2010
Tipos
bsicos
de
agentes
Quatro
Ppos
bsicos,
do
mais
simples
ao
mais
geral
Agentes
reaPvos
simples
Agentes
reaPvos
baseados
em
modelos
Agentes
baseados
em
objePvos
Agentes
baseados
na
uPlidade
Aula
2
-
13/08/2010
Agente
ReaPvo
Simples
Aula
2
-
13/08/2010
Exemplo:
Agente
ReaPvo
Simples
Funo AGENTE-ASPIRADOR-DE-P-REATIVO([posio,estado])
retorna uma ao
se estado = Sujo ento retorna Aspirar
seno se posio = A ento retorna Direita
seno se posio = B ento retorna Esquerda
Aula
2
-
13/08/2010
Agentes
reaPvos
baseados
em
modelos
Aula
2
-
13/08/2010
Agentes
reaPvos
baseados
em
modelo
Funo
AGENTE-REATIVO-COM-ESTADOS(percepo)
retorna
uma
ao
Variveis
est<cas:
estado,
uma
descrio
do
estado
atual
do
mundo
regras,
um
conjunto
de
regras
condio-ao
ao,
a
ao
mais
recente,
incialmente
nenhuma
estado
ATUALIZA-ESTADO(estado,
ao,
percepo)
regra
REGRA-CORRESPONDENTE(estado,
regras)
ao
AO-DA-REGRA[regra]
retornar
ao
Aula
2
-
13/08/2010
Agentes
reaPvos
baseados
em
objePvos
Aula
2
-
13/08/2010
Agentes
reaPvos
baseados
na
uPlidade
Aula
2
-
13/08/2010
Agentes
com
aprendizagem
Aula 2 - 13/08/2010