HO-03 Kecerdasan Buatan
-
Upload
rimbun-ferianto-sr-rimbun -
Category
Documents
-
view
179 -
download
5
Transcript of HO-03 Kecerdasan Buatan
HO-2 KTL401 Kecerdasan Buatan
Intelligent Agents
Opim S Sitompul
2
Outline
Agen dan lingkungan
Rasionalitas
PEAS (Performance measure, Environment,
Actuators, Sensors)
Jenis-jenis Lingkungan
Jenis-jenis Agen
3
Agent
Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators
Agen manusia: mata, telinga, dan organ tubuh lain untuk sensor; tangan, kaki, mulut, dan bagian tubuh lain untuk actuators
Agen robotik: kamera dan infrared range finders untuk sensors; berbagai macam motor untuk actuators
4
Agent dan lingkungan
Fungsi agen memetakan dari sejarah persepsi ke
dalam tindakan (actions):
[f: P* A]
Program agen berjalan pada arsitektur fisik untuk
menghasilkan f
agen = arsitektur + program
5
Vacuum-cleaner world
Percepts: location and contents, e.g.,
[A,Dirty]
Actions: Left, Right, Suck, NoOp
6
A vacuum-cleaner agent
Sekuen Persepsi Tindakan
[A, Clean] Right
[A, Dirty] Suck
[B, Clean] Left
[B, Dirty] Suck
[A, Clean], [A, Clean] Right
[A, Clean], [A, Dirty] Suck
… …
[A, Clean], [A, Clean], [A, Clean] Right
[A, Clean], [A, Clean], [A, Dirty] Suck
… …
7
Agen rasional Sebuah agen haruslah mengarah kepada “lakukan
hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil
Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen
Mis., ukuran performance dari sebuah agen vacuum-cleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.
8
Agen rasional
Agen rasional : Untuk setiap deretan persepsi
yang mungkin, sebuah agen rasional
hendaklah memilih satu tindakan yang
diharapkan memaksimalkan ukuran
performance-nya, dengan adanya bukti yang
diberikan oleh deretan presepsi dan apapun
pengetahuan terpasang yang dimiliki agen
itu.
9
Omniscience, learning, dan autonomy
Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga)
Agen omniscient mengetahui hasil aktual tindakannya dan dapat bertindak sesuai dengan itu.
Akan tetapi, omniscience adalah tidak mungkin dalam realitas.
Contoh: penyeberang jalan tiba-tiba ketimpa pintu pesawat cargo (“New door latches urged for Boing 747 jumbo jets”, Washington Post, 25 Agustus 1989).
10
Omniscience, learning, dan autonomy
Rasionalitas tidak sama dengan kesempurnaan. Rasionalitas memaksimalkan ekspektasi kinerja.
Kesempurnaan memaksimalkan kinerja aktual.
Definisi agen rasional tidak hanya menyangkut pengumpulan informasi, tetapi juga belajar sebanyak mungkin dari persep yang diterimanya.
Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi)
11
Task Environment
PEAS: Performance measure, Environment, Actuators, Sensors
Pertama-tama harus menentukan pengaturan untuk desain agen cerdas
Contoh: Merancang supir taksi otomatis:
12
Task Environment
13
Task Environment
Agen: Sistem pendiagnosa medis
Performance measure: Pasien sehat, biaya
minimal, sesuai hukum
Environment: Patient, hospital, staff
Actuators: Screen display (questions, tests,
diagnoses, treatments, referrals)
Sensors: Keyboard (entry of symptoms,
findings, patient's answers)
14
Task Environment
Agent: Robot pengutip-sukucadang
Performance measure: Persentase suku
cadang dalam kotak yang benar
Environment: ban berjalan dengan suku
cadang, kotak
Actuators: Pergelangan dan tangan
tersambung
Sensors: Kamera, joint angle sensors
15
Task Environment
Agen: Tutor Bahasa Inggeris Interaktif
Performance measure: Memaksimalkan nilai
mahasiswa pada waktu ujian
Environment: Sekumpulan mahasiswa
Actuators: Layar display (exercises,
suggestions, corrections)
Sensors: Keyboard
16
Jenis-jenis Lingkungan
Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu.
Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic)
Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.
17
Jenis-jenis Lingkungan
Static (vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan (deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah)
Discrete (vs. continuous): Sejumlah terbatas persepsi dan tindakan yang khas dan terdefinisi baik.
Single agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam sebuah lingkungan.
18
Jenis-jenis Lingkungan
Jenis lingkungan sangat menentukan rancangan agen
Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent
Lingkungan Tugas Observable Deterministic Episodic Static Discrete Agents
Crossword puzzle
Chess with a clock
Fully
Fully
Deterministic
Stategic
Sequential
Sequential
Static
Semi
Discrete
Discrete
Single
Multi
Poker
Backgammon
Partially
Fully
Stochastic
Stochastic
Sequential
Sequential
Static
Static
Discrete
Discrete
Multi
Multi
Taxi driving
Medical diagnosis
Partially
Partially
Stochastic
Stochastic
Sequential
Sequential
Dynamic
Dynamic
Continu
Continu
Multi
Single
Image-analysis
Part-picking robot
Fully
Partially
Deterministic
Stochastic
Episodic
Episodic
Semi
Dynamic
Continu
Continu
Single
Single
Refinery Controller
Int. English Tutor
Partially
Partially
Stochastic
Stochastic
Sequential
Sequential
Dynamic
Dynamic
Continu
Discrete
Single
Multi
19
Struktur Agen
Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi. Tugas AI adalah merancang program agen yang
mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan
Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)
Agent = arsitektur + program
Program yang dipilih harus sesuai dengan arsitektur tersebut. Cth: Action: Walk arsitekturnya hendaklah memiliki kaki
20
Program-Program Agen
Empat jenis dasar untuk menambah
generalitas:
Simple reflex agents
Model-based reflex agents
Goal-based agents
Utility-based agents
21
Table-driven agent
function TABLE-DRIVEN-AGENT(percept) returns an action
static: percepts, a sequence, initially empty
tables, a table of actions, indexed by percepts sequence, initially fully specified
append percept to the end of percepts
action <- LOOKUP(percepts, table)
return action
22
Table-driven agent
Kekurangan: Tabel sangat besar
Misalkan P himpunan percepts yang mungkin
T lifetime agen
Entri table lookup:
Automated taxi: rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan
24 bit color information)
Table lookup: 10250,000,000,000
Memakan waktu lama untuk membangun tabel
Tidak Otonom
Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel
23
Simple reflex agents
Contoh:
function REFLEX-VACUUM-AGENTS([location, status]) returns an action
if status = Dirty then return Suck
else if location = A then return Right
else if location = B then return Left
24
Simple reflex agents
25
Simple Reflex Agent
function SIMPLE-REFLEX-AGENT(percept) returns an action
static: rules, a set of condition-action rules
state <- INTERPRET-INPUT(percept)
rule <- RULE-MATCH(state, rule)
action <- RULE-ACTION[rule]
return action
26
Model-based reflex agents
27
Model-based reflex agents
function REFLEX-AGENT-WITH-STATE(percept) returns an action
static: state, a description of the current world state
rules, a set of condition-action rules
action, the most recent action, initially none
state <- UPDATE-STATE(state, action, percept)
rule <- RULE-MATCH(state, rules)
action <- RULE-ACTION[rule]
return action
28
Goal-based agents
29
Utility-based agents
30
Learning agents