Recommended
Neural network and GA approaches for dwelling fire occurrence prediction
01 introduction to data mining
โครงงานคอมพิวเตอร์ เรื่อง สมุนไพรรางจืด
15 Machine Learning Multilayer Perceptron
Optimization Methods in Finance
02.03 Artificial Intelligence: Search by Optimization
Media&tech2learn 001-Part 1
07 classification 3 neural network
Using Gradient Descent for Optimization and Learning
Gradient Descent, Back Propagation, and Auto Differentiation - Advanced Spark...
01 introduction to data mining
Lecture11 - neural networks
ทฤษฎีการเรียนรู้ (Learning theory)
Deep Learning in Computer Vision
Functions สมาคมคณิตศาสตร์ 2555
More Related Content
Neural network and GA approaches for dwelling fire occurrence prediction
Viewers also liked (16) 01 introduction to data mining
โครงงานคอมพิวเตอร์ เรื่อง สมุนไพรรางจืด
15 Machine Learning Multilayer Perceptron
Optimization Methods in Finance
02.03 Artificial Intelligence: Search by Optimization
Media&tech2learn 001-Part 1
07 classification 3 neural network
Using Gradient Descent for Optimization and Learning
Gradient Descent, Back Propagation, and Auto Differentiation - Advanced Spark...
01 introduction to data mining
Lecture11 - neural networks
ทฤษฎีการเรียนรู้ (Learning theory)
Deep Learning in Computer Vision
Functions สมาคมคณิตศาสตร์ 2555
Time series data mining2. Time series data processing for feature extractionความสามารถในการแยกจากแรงดันไฟฟ้าที่ดีที่สุด คือการแยกจากจุดกำเนิดผ่านการวิเคราะห์ช่วงความถี่ที่มีประสิทธิภาพ 5. Wavelet transformShort Time Fourier Transform- S-transform ของเวลาที่สัญญาณแตกต่างกัน โดย h(t) จะได้เป็น - ที่ฟังก์ชัน w(t,f) จะสามารถแทนด้วย 6. Time series data processing for feature extractionและ (f) เป็นฟังก์ชันความถี่ 8. ที่ G(m,n) = e -2π2m2α2/n2 และ H(m, n) ขยับตาม discrete Fourier transform (DFT) ของ h(k) ตาม n ดังนั้น H(m) จะเป็น Time series data processing for feature extractionStd1: ส่วนเบี่ยงเบนมาตรฐานของ contour ต่ำสุดไปสองครั้งความถี่พื้นฐานปกติ 10. Avg: เฉลี่ยค่าสัมบูรณ์ squared ของ S – matrix ที่ไปสามครั้งความถี่พื้นฐานTime series data processing for feature extractionCf: Max(A) + Min(A) Max(B) Min(B), เมื่อ A คือ amplitude กับเวลากราฟ ของ S – matrix สำหรับสัญญาณที่ไม่ถูกรบกวน และ B สำหรับสัญญาณที่ถูกรบกวน 11. THD: ความเพี้ยนของฮาร์โมนิรวมสัญญาณที่ N คือจำนวนจุดใน FFTTime series data processing for feature extractionStd2 (Cr): ส่วนเบี่ยงเบนมาตรฐานของ Cr, Cr ที่เป็น amplitude กับกราฟของ S -matrix สำหรับความถี่สูงกว่าสี่ครั้งความถี่พื้นฐาน; คุณลักษณะนี้จะ เรียกว่า Std.2 38. หลักการทำงานของ MLPMultilayer perceptron เป็นหนึ่งในสถาปัตยกรรมเครือข่ายประสาทที่นิยมใช้ในปัจจุบัน ซึ่งมีความใกล้เคียงความเป็นสากล และเป็นมาตรฐานเมื่อเปรียบเทียบกับเครือข่ายประสาทอื่น ๆหลักการทำงานของ MLP ในแต่ละชั้นของชั้นซ่อนตัว (Hidden Layer) จะมีฟังก์ชันสำหรับคำนวณเมื่อได้รับสัญญาณ (Output) จากโหนดในชั้นก่อนหน้า เรียกว่า Activation Function โดยในแต่ละชั้นไม่จำเป็นต้องเป็นฟังก์ชันเดียวกันก็ได้ 39. ทำการเลือกค่าของ Output ที่มีค่าสูงกว่า (Neuron ที่มีค่าสูงกว่า) และทำการปรับค่าของ Error ให้อยู่ในช่วงที่รับได้ (Error น้อยกว่า Error ที่เรากำหนด)หลักการทำงานของ MLP หลังจากให้ทำการรับข้อมูลชุดถัดไป แต่หากค่าของน้ำหนัก มากกว่าค่าที่ยอมรับได้ ให้ทำการปรับค่าน้ำหนักและ Biased ตามขั้นตอนที่ 2 43. RBFLN สามารถพิจารณาฟังก์ชั่นการส่ง (mapping function) ของความสัมพันธ์ระหว่างคู่รูปแบบอินพุตและเอาต์พุตได้ โดยการเรียนรู้ของเครือข่ายเป็นการปรับค่าน้ำหนักประสาทให้ได้ฟังก์ชันการส่งที่เหมาะที่สุดเพอร์เซ็ปตรอนหลายชั้นแบบคุมเครือ 44. ในงานนี้ มีการแก้ไขกระบวนการอินพุต fuzzification เพียงเล็กน้อย ขึ้นอยู่กับคุณลักษณะคุณสมบัติที่สามารถแบ่งพาร์ติชันในหลายพื้นที่ไม่จำเป็นต้องจำกัด อยู่ที่ขนาดเล็กกลางและสูง โดยใช้ฟังก์ชันสมาชิกทั่วไปเช่นฟังก์ชัน S สมาชิก, ฟังก์ชัน Z สมาชิก, ฟังก์ชันสมาชิก Gaussian หรือฟังก์ชันสมาชิกที่เห็นว่ามีประโยชน์รูปแบบการจำแนกข้อมูล 46. ขั้นตอนที่ 2. > 0.5 โดยมีการเชื่อมโยงค่าน้ำหนักสะสมสูงสุดไปยังค่า Output ค่าของชั้นที่ซ่อนจะมากกว่า 0 60. การทำ fuzzy MLP เนื่องจากสามารถเข้าถึงข้อมูลเชิงลึกได้ แม้ว่าการระบุชุดเวลาไม่คงที่ความเป็นไปได้ในอนาคต การนำเอาการเรียนรู้ไปประยุกต์ใช้ในงานประเภทอื่น ๆ เช่น ตลาดหุ้น