Laboratorio Smart City...
-
Upload
nguyendung -
Category
Documents
-
view
228 -
download
1
Transcript of Laboratorio Smart City...
Laboratorio Smart City CTIC-UNI
José Manuel Castillo CaraCentro de Tecnologías de la Información y Comunicación
Escuela Profesional de Ciencia de la ComputaciónFacultad de Ciencias
Universidad Nacional de Ingeniería
Índice
● Áreas de las Smart Cities● Seguridad ciudadana.● Predicciones con Machine Learning en
seguridad ciudadana.● BeaGOns & IOT4X y PyMach projects!
Áreas de una Smart City
Áreas de una Smart City. Fuente: Chourabi et al
1. Violencia de género y seguridad ciudadana
1.1. Componentes
1.2. Relaciones
1.3. SAVIAtt
● En Wi-Fi localización mediante algoritmos probabilísticos, Filtro de partículas óptimo.– Jesús Martıı́nez-Gómez et al, Spatial
statistical analysis for the design of indoor particle-filter-based localization mechanisms.
● Con bluetooth utilización de patrones, k-NN como algoritmo óptimo– Jesús Lovón Melgarejo et al. Supervised
learning algorithms for indoor location fingerprinting using BLE4.0 Beacons.
– Manuel Castillo-Cara et al. Ray: Smart Indoor/Outdoor Routes for the Blind Using Bluetooth 4.0 BLE.
1.4. Actualizaciones de cada perfil
2. Predicciones con Machine Learning
2.1. Data pre-processing (I)
● Data validation: asegurar que los datos estén limpios, sean precisos y útiles.
● Sorting: ordenar los datos en una secuencia, de modo que los grupos de datos que comparten afinidad estén adyacentes en la tabla.
● Summarizing: sintetizar los detalles a los puntos principales; Si dos conjuntos de datos proporcionan la misma información, entonces es recomendable trabajar con la variable más significativa para evitar la duplicación de datos.
● Combine: Varias piezas de datos pueden no tener un solo significado, pero al unirse a ellos, la información de tal unión puede dar un nuevo alcance para el modelo.
2.1. Data pre-processing (II)
2.2. Graphical Representation of the data
2.3. Trainning data
2.4. Logistic Regression Vs. Random Forest (I)
¿Que predicción utilizariáis?● Yo, Random Forest
– Multiple Logistic Regression tiene una confianza de 67.64% probabilidad de éxito, pero solamente puede realizarse de la clase “Car Crash”
– Random Forest una de 62.94%. En este caso vemos más puntos verdes, más clases.
● Las siguientes muestran la matriz de confusión– Multiple Logistic Regression: ”Car Crash” obtiene el 100% de éxito,
sin embargo, todas las demás clases están a 0. – Random Forest ’Car Crash’ obtiene 88.7% de éxito, mucho más real.
Además, ’Car Cluelessness’ 26.7%, mientras Logistic tenía un valor de 0%.
2.4. Logistic Regression Vs. Random Forest (II)
2.5. Outlining the app
● Gusseppe Bravo Roca et al. Citizen security using Machine Learning algorithms through Open Data.
3. BeaGOns & IOT4X y PyMach projects!
¡Muchas gracias!
Contacto
Manuel Castillo-CaraMail: [email protected]
“La mejor tecnología es atacar la estupidez psicológica humana” CEO Smart City Palo Alto