viernes, 22 de diciembre de 2023

La inteligencia Artificial (definiciones y algoritmos)

En esta publicación delimitamos el concepto de la inteligencia artificial.


 

La inteligencia artificial (IA) se refiere a la capacidad de las máquinas o sistemas informáticos para realizar tareas que normalmente requieren inteligencia humana. Esto incluye el aprendizaje, la adaptación, la resolución de problemas y la toma de decisiones. Los sistemas de inteligencia artificial pueden procesar datos, reconocer patrones y mejorar su rendimiento con el tiempo sin intervención humana directa. 

Inteligencia artificial: El término general. En términos amplios, se refiere a software diseñado para imitar o superar aspectos de la inteligencia humana. El software de inteligencia artificial puede aprender a partir de datos como imágenes o texto, experiencia, evolucionar o cualquier otra cosa que los investigadores aún tengan que inventar.

Cuando hablamos de que la inteligencia artificial "entiende" algo, nos referimos a su capacidad para procesar datos, aprender patrones y realizar tareas específicas de manera eficiente. Este entendimiento no implica una conciencia subjetiva ni una comprensión en el sentido humano. La inteligencia artificial opera de acuerdo con las reglas y lógica programadas en su código, sin una verdadera comprensión del significado de las tareas que realiza.

 Alguna de las funciones que han tenido mayor relevancia son:

- Reconocimiento de imágenes estáticas, clasificación y etiquetado

- Mejora de algoritmos comerciales

- Mantenimiento predictivo

- Clasificación de objetos

- Distribución de contenido en redes sociales

- Traducción de textos

Aprendizaje automático / machine learning

El aprendizaje automático, o "machine learning" en inglés, es una rama de la inteligencia artificial que permite a las computadoras aprender y mejorar su rendimiento en tareas específicas a través de la experiencia y el análisis de datos, en lugar de seguir instrucciones programadas explícitamente. Se basa en algoritmos que permiten a las máquinas aprender patrones y tomar decisiones sin intervención humana directa.

Usos:

-  Aplicación en la creación de filtros de SPAM

Algoritmos básicos

perceptrón 

El Perceptrón es un modelo simple de una neurona artificial que puede ser utilizado para clasificación binaria. En 1957 Frank Rosenblatt inventó el perceptrón en el laboratorio aeronáutico de Cornell. Basándose en los primeros conceptos de neuronas artificiales, propuso la “regla de aprendizaje del perceptrón”.

Un perceptrón es una neurona artificial, y, por tanto, una unidad de red neuronal. El perceptrón efectúa cálculos para detectar características o tendencias en los datos de entrada.

Se trata de un algoritmo para el aprendizaje supervisado de clasificadores binarios. Ese algoritmo es el que permite que las neuronas artificiales aprendan y traten los elementos de una serie de datos.

El perceptrón desempeña un papel esencial en los proyectos de Machine Learning. Se utiliza en gran medida para clasificar datos, o como algoritmo que permite simplificar o supervisar las capacidades de aprendizaje de los clasificadores binarios.

Almacenamiento de datos

Para los DATOS de la IA se usan las siguientes estructuras

  1. Vectores y Matrices: En muchos casos, los datos de entrada y salida se representan mediante vectores o matrices numéricas. Cada elemento del vector puede representar una característica específica y se utiliza para la entrada en algoritmos de aprendizaje automático.

  2. Tensores: Una generalización de matrices a más dimensiones, los tensores son utilizados en redes neuronales y otros modelos de aprendizaje profundo para manejar datos multidimensionales.

  3. Grafos: En modelos de aprendizaje profundo, especialmente en redes neuronales, se utiliza una estructura de grafo para representar la arquitectura del modelo. Los nodos del grafo suelen representar operaciones matemáticas, y las aristas indican cómo fluye la información.

  4. Árboles de Decisión: En algoritmos de aprendizaje supervisado, como los árboles de decisión, se utiliza una estructura de árbol para representar las decisiones tomadas durante el proceso de clasificación.

  5. Listas y Conjuntos: En algunos casos, se utilizan estructuras de datos simples como listas o conjuntos para almacenar y manipular datos durante el procesamiento.

  6. Diccionarios: Se utilizan para representar mapeos entre claves y valores. En el contexto de la inteligencia artificial, podrían usarse para almacenar información sobre características y sus valores asociados.

Lecturas y videos recomendados:

Libro Inteligencia Artificial de Margaret A. Boden
https://books.google.com.pe/books?hl=es&lr=&id=LCnYDwAAQBAJ&oi=fnd&pg=PT3&dq=inteligencia+artificial&ots=dsPoxWbMp9&sig=lI-llpS0dTjAFQUtWBDz6-Nj8FM&redir_esc=y#v=onepage&q=inteligencia%20artificial&f=false

Libro: Rouhiainen - Madrid: Alienta Editorial, (2018) - INTELIGENCIA ARTIFICIAL101 COSAS QUE DEBES SABER HOY SOBRE NUESTRO FUTURO

 Martin Armstrong, The Future Of A.I.(2016). https://www.statista.com/chart/6810/the-future-of-ai 

Artificial Intelligence - Q&A with Sebastian Thrun: June 2017. https://www.youtube.com/watch?v=gyEyBZdUjCo

Perceptrón: ¿qué es y para qué sirve? https://datascientest.com/es/perceptron-que-es-y-para-que-sirve

  1. Alan Turing: Pionero en la teoría de la computación, Alan Turing propuso la "máquina universal" y sentó las bases conceptuales para la inteligencia artificial.

  2. John McCarthy: Conocido como el "padre de la inteligencia artificial", McCarthy acuñó el término "inteligencia artificial" y fue fundamental en el desarrollo de los primeros programas de IA.

  3. Marvin Minsky: Co-fundador del MIT AI Lab, Minsky hizo contribuciones significativas al campo de la visión por computadora y la teoría de la mente.

  4. Herbert A. Simon: Ganador del Premio Nobel en Economía, Simon contribuyó a la inteligencia artificial y la psicología cognitiva. Su trabajo incluye el desarrollo de modelos de toma de decisiones.

  5. Geoffrey Hinton: Pionero en el campo del aprendizaje profundo, Hinton ha hecho contribuciones significativas al desarrollo de redes neuronales y al avance de la inteligencia artificial.

  6. Andrew Ng: Co-fundador de Coursera y profesor en la Universidad de Stanford, Ng ha desempeñado un papel clave en la popularización de la educación en inteligencia artificial y aprendizaje automático.

  7. Yann LeCun: Director de IA de Facebook y profesor en la Universidad de Nueva York, LeCun es conocido por su trabajo en redes neuronales convolucionales (CNN) y su aplicación en reconocimiento de imágenes.

  8. Fei-Fei Li: Profesora en la Universidad de Stanford, Li es conocida por su trabajo en visión por computadora y aprendizaje profundo, y ha contribuido a la popularización de la inteligencia artificial.

jueves, 14 de diciembre de 2023

Carrera de Ingeniería en Ciencia de Datos

 La carrera de Ingeniería en Ciencia de Datos es un programa académico que prepara a los estudiantes para trabajar en el campo emergente de la ciencia de datos. La ciencia de datos es un enfoque interdisciplinario que combina conocimientos de estadísticas, matemáticas, informática y dominio del tema para extraer conocimientos y perspectivas de conjuntos de datos complejos.




Aquí hay algunos aspectos clave de la carrera de Ingeniería en Ciencia de Datos:

  1.     Fundamentos de la Computación: Los estudiantes adquieren habilidades sólidas en programación y comprensión de algoritmos, ya que la manipulación y el análisis de grandes conjuntos de datos a menudo requieren un sólido conocimiento en informática.
  2.     Estadísticas y Matemáticas: La comprensión de los fundamentos estadísticos y matemáticos es esencial para realizar análisis significativos de datos. Los estudiantes suelen estudiar probabilidad, álgebra lineal, cálculo y estadísticas avanzadas.
  3.     Bases de Datos y Almacenamiento de Datos: Los ingenieros en ciencia de datos deben saber cómo almacenar y gestionar grandes cantidades de datos. Esto implica conocimientos en bases de datos, sistemas de gestión de bases de datos (DBMS) y tecnologías de almacenamiento.
  4.     Machine Learning y Aprendizaje Profundo: El aprendizaje automático (machine learning) y el aprendizaje profundo (deep learning) son áreas clave de la ciencia de datos. Los estudiantes aprenden a construir modelos predictivos y analíticos utilizando algoritmos de machine learning.
  5.     Programación y Herramientas Específicas: Los ingenieros en ciencia de datos suelen trabajar con lenguajes de programación como Python y R, así como con herramientas específicas como TensorFlow, PyTorch, y bibliotecas de ciencia de datos como Pandas y NumPy.
  6.     Ética y Comunicación: Dada la naturaleza sensible de muchos conjuntos de datos y la importancia de comunicar hallazgos de manera efectiva, se enseñan aspectos éticos y habilidades de comunicación.
  7.     Proyectos Prácticos: Muchos programas incluyen proyectos prácticos en los que los estudiantes aplican sus conocimientos para resolver problemas del mundo real. Esto puede incluir la colaboración con empresas o instituciones para abordar desafíos específicos.

 

 Según las universidades consultadas los cursos son:


Ingeniería en Ciencia de Datos
1. DATA SCIENCE SPECIALIST
Minería de datos
Minería de datos avanzado
Análisis de regresión & Series temporales
Procesos estocásticos
Analítica de la web

2. ARTIFICIAL INTELLIGENCE SPECIALIST

Inteligencia artificial
Machine Learning
Deep Learning
Computación gráfica


DATOS

Los procesos estocásticos son modelos matemáticos que describen la evolución de un sistema a lo largo del tiempo de una manera probabilística. Estos modelos se utilizan para analizar y entender fenómenos que exhiben aleatoriedad o variabilidad en su comportamiento. Los procesos estocásticos son ampliamente utilizados en diversas disciplinas, como estadísticas, ingeniería, finanzas, física, biología y más.

DESTACADA

Ozono medicinal para la piel: Luce una piel más joven y radiante

¿Buscas una solución natural y efectiva para mejorar la apariencia de tu piel? El ozono medicinal podría ser la respuesta que estás buscand...