Otro camino

esa palabrita

A post shared by Franco Cedillo (@paracuerdas) on

Cada vez que llegamos juntos al principio de ese camino,

pisamos muy cerca de nuestras propias huellas de días pasados.

Nos fusionamos con la natura y disfrutamos el paso a paso,

sentimos los desniveles, repasamos los aromas.

 

Contemplamos y, a veces, saludamos a nuestros amiguitos.

 

Algunas veces nos hemos apresurado en recorrer hacia el final de este camino,

nunca han faltado las ganas de en ese mismo momento recorrerlo de regreso.

 

La ruta al final tiene más luz.

Aunque a veces ya no son los rayos del sol

sino que somos uno con el camino

y sentimos el presente de la vida que ha recorrido nuestras piedras y tierra

 

 

Arduino y Robótica cerca a Salamanca, Cahuache y Villa Jardín

Hace un tiempo vi como una pequeña academia promocionaba sus cursos de Arduino para niños, recuerdo haber preguntado si allí vendían estos dispositivos Microcontrolador + GPIO

Al tiempo ya no vi el aviso, imagino que no tuvo la acogida suficiente o tal vez se mudaron a un local en algún otro lugar.

Hoy vi un aviso, casi frente a donde estaba esa academia. En la Cuadra 37 de la Avenida Canadá.

Bueno, no dejaré de avisarles que allí anuncia clases diversas el Ingeniero Luis Nolasco (UNI). Teléfono 4373829, Celular 999865515

Anuncian también ofimática dirigida a adultos mayores, talleres para niños a partir de 12 años. Pueden hacer consultas a reparamoscomputadoras@hotmail.com

Las consultas pueden ser también acerca de su anuncio de Inteligencia Artificial, Marketing Digital y hasta el Canvas de Modelo de Negocio.

Trilux 032 Medium de Faber Castell

El Trilux 032 Medium es mi compañero del día a día.

Me gustan los lapiceros “de cristal”, los de cuerpo traslúcido, pues deseo solo tener uno o dos lapiceros y solo reemplazarlos cuando ya su tinta esté por agotarse. Soy de las personas que en general no utilizaría un lapicero de Merchandising, tal como no utilizo ropa, gorros o botellas de merchandising.

Pasé a utilizar el lapicero de tres caras, pues es el agarre que vi se dirigía a niños, y me siento cómodo utilizándolo. Me siento un poco, como un niño, más libre, más feliz.

No solo utilizo bien la computadora, sino que la utilizo muchísimo, así como el smartphone. Sin embargo los trazos a manos me mentalizan, siento que las ideas se conectan con mi cuerpo, con mis manos. Así nosotros mismos nos fusionamos con nuestras creaciones.

¿Por qué no un lapicero punta fina?

Pues el trazo de este Medium es más suave de realizar, y mejor de distinguir con luz artificial.

p en g2, ml, nltk, skds, hs

A post shared by Franco Cedillo (@paracuerdas) on

ahí les compartí el recuerdo de cuando se acabó la tinta de uno de mis triluxes, un azul, sin duda el color que más utilizo

Machine Learning at Coursera: Week 10

Large Scale Machine Learning - cousera machine learning week 10

Large Scale Machine Learning

  • e.g. Census data, Website traffic data
  • Can we train on 1000 examples instead of 100 000 000? Plot
  • If high variance, add more examples
    If high bias, add extra features

Gradient Descent with Large Datasets

  • G.D. = batch gradient descent
  • Stochastic Gradient Descent
  • cost function = cost of theta wrt a specific example (x^i, y^i). Measures how well the hypothesis works on that example.
  • May need to loop over the entire dataset 1-10 times

Mini-Batch Gradient Descent

  • Batch gradient descent: Use all m examples in each iteration
  • Stochastic gradient descent: Use 1 example in each iteration
  • Mini-batch gradient descent: Use b examples in each iteration
  • typical range for b = 2-100 (10 maybe)
  • Mini-batch Gradient Descent allows vectorized implementation
    Can partially parallelize the computation

Advanced Topics

Stochastic G.D. convergence

  • every 1000 iterations we can plot the costs averaged over te last 1000 examples
  • Learning Rate, smaller learning rate means smaller oscillations (plot)
    average over more examples, 5000, may get a smoother curve
  • If curve is increasing, should use smaller learning rate
  • Learning Rate
    alpha = const 1 / ( iterationNumer + const2 )

Online Learning

  • continuous stream of data
  • e.g. 1. shipping service, from origin and destination, optimize the price we offer
    • x = feature vector (price, origin, destination)
      y = if they chose to use our service or not
  • e.g. 2. product search
    • input: “Android phone 1080p camera”
    • we want to offer 10 phones per query
    • learning predicted click through rate (CTR)

Map Reduce and Data Parallelism

  • Hadoop
  • Use local CPU to look at local data
  • Massive data parallelism
  • Free text, unstructured data
  • sentiment analysis
  • NoSQL
  • MongoDB

 

Sources

Machine Learning at Coursera: Week 9

Anomaly Detection

Anomaly_Detection-machine-learning-coursera

Density Estimation

Anomaly Detection

Gaussian distribution

  • e.g. Aircrafts engines features: heat generated, vibration intensity
  • e.g. servers: memory usage, cpu load, cpu load / network traffic

Building Anomaly Detection system
Developing and Evaluating
vs. Supervised Learning
What Features to Use

Multivariate Gaussian Distribution

 

Recommender Systems

Recommender-Systems-machine-learning-coursera

 

Content Based Recommendations

  • r(i, j): 1 if user j has rated movie i
  • y(i, j): rating user j to movie i

Collaborative Filtering

  • Symmetry breaking

Low-rank Matrix Factorization

Machine Learning at Coursera: Week 8

Machine Learning at Coursera: Week 8

Unsupervised Learning & K-means

  • Clustering Algorithms, K-means Algorithm
  • Centroids
  • K-means for non-separated clusters
  • Random initialisation
  • Elbow method

Dimensionality Reduction

  • 2D -> 1D
  • Data Compression to speedup training as well as visualizations of complex datasets
  • Indexes (e.g. GDP, Human Development Index)
  • Principal Component Analysis (PCA), projection
  • Data Preprocesing. Scaling, normalization
  • [U, S, V] = svd(sigma)
  • U = covariance matrix
  • Reconstruction from compressed representation

 

Machine Learning at Coursera: Week 7

Machine Learning Coursera - SVM - Week 7

This week is about Support Vector Machine (SVM).

First we will learn about Large Margin Classification, in reference to the larger minimum distance from any of the training samples.

We will study Kernels, and the adaptation to non-linear classifiers.

Choosing landmarks will also be covered.

C parameter will be studied.

Similarity and Gaussian Kernels are also main keywords of this session.

We will get good advice about using SVM vs Logistic Regression vs Neural Networks.

 

 

Machine Learning at Coursera: Week 6

Advice for Applying Machine Learning

Advice for Applying Machine Learning

What to try next? More samples? Smaller sets? More Complex features? Decreasing Lambda?

We will learn to use Test Sets and Cross Validation Set.

In this lesson is presented the powerful tool Bias vs. Variance.

 

Machine Learning System Design

Machine Learning System Design

Building a Spam Classifier, with this example we will learn to Prioritize what to work on and the Best use of our time.

Plotting learning curves will help us to grade our work and pivot our working path.

We will also learn to use a method for Error Analysis. Developing intuition with samples related to errors. Numerical evaluation would be an important tool for us.

For Skewed Classes we will get Precision and Recall. F1 Score measures the trade off between them.