Sei sulla pagina 1di 6

FUNDAMENTOS DE LA INFORMÁTICA

INTRODUCCIÓN A LA INFORMÁTICA
La Informática es el conjunto de conocimientos científicos y técnicas que hacen posible el
tratamiento automático de la información por medio de computadoras.
HISTORIA:
 19th century  Ada Lovelace (1815 – 1852) 
 20th century  Alan Turing (1912 - 1954)  1940s - first generation of SW / US-ENIAC
 1970s – Unix / IBM (Commercial SW)  1980s - Home Personal Computers ̶ Bill
Gates (Microsoft/Windows) ̶ Steve Jobs (Apple/Machintosh)  1990s – Linux (Open
Source SW), WWW (Internet), 2G mobile phones
 21st century  2000s – 3G mobile phones, iPhone  2010s – 4G mobile phones,
Smartphones, Social Networks, Internet of Things, Big Data, Inteligencia Artificial
De los datos se obtiene información, y de estos, conocimiento. El big data es una colección de
datos inmanejable a través de las herramientas de gestión y procesamiento tradicionales. Su
Volumen, Diversidad y Complejidad requiere el desarrollo de una nueva arquitectura de
procesamiento, algoritmos y técnicas de visualización y análisis. Consta de las ocho uves:
 Validez.
 Volumen.
 Volatibilidad.
 Veracidad.
 Variedad.
 Variabilidad.
 Velocidad.
 Valor.
INTERNET es la red de redes y consta de protocolos, estándares, enlaces y RedIRIS (proveedor
para universidades y centros educativos). Primero, solo constaba de ARPAnet; posteriormente,
era una interconexión de redes; después, hubo una proliferación de redes y, finalmente, se
produjo su comercialización. La comunicación mediante internet se realiza mediante 5 pasos:
1. Aplicación (mensajes o flujos continuos).
2. Transporte (segmentos).
3. Interred (datagramas IP).
4. Subred (tramas de subred).
5. Físico.

INTRODUCCIÓN A REDES SOCIALES:


ANÁLISIS Y VISUALIZACIÓN DE INFORMACIÓN:
La sobrecarga de información se ha convertido en un problema importante por el aumento de
esta; además, la visualización de la información tiene el potencial necesario para ayudar a las
personas a acceder a información necesaria de una forma más eficaz e intuitiva.
El objetivo del modelado estructural es detectar, extraer y simplificar las relaciones en nuestro
dominio de aplicación. El propósito de la representación gráfica es transformar un modelo
previo de una estructura en un modelo gráfico que permita examinar esta estructura original e
interactuar con ella.
COMPARTICIÓN Y DIFUSIÓN DE INFORMACIÓN.
La difusión de información es el proceso por el que la información se extiende por la red y
alcanza a los individuos a través de interacciones. El Social Media Mining consiste en la
sociología, epidemología, etnografía...
CIENCIAS FORENSES E INFORMÁTICA:
LAS CIENCIAS FORENSES:
Las Ciencias Forenses son el conjunto de disciplinas cuyo objeto común es el de la
materialización de la prueba a efectos judiciales mediante una metodología científica. Nos
encontramos en un campo interdisciplinar puesto que tenemos varias especialidades:
 Criminalística: auxiliar del derecho que se ocupa del descubrimiento de los delitos que
se cometen.
 Medicina forense: encargada de determinar e origen de lesiones o causa de muerte y
la identificación de seres humanos. Consta de antropología, odontología, patología...
En los laboratorios de analítica tenemos química y biología forenses y dactiloscopia.
En los de técnica policial tenemos documentos (grafística, documentoscopia) y física e
ingeniería forense. En los laboratorios de innovaciones tecnológicas tenemos análisis de
imágenes, informática forense y desarrollo de aplicaciones avanzadas para la identificación.
El procedimiento en un caso sería:
1. Identificación, detección y recopilación de pruebas.
2. Análisis de las pruebas e hipótesis preliminares.
3. Identificación y clasificación. Individualizar personas, objetos...
4. Crear uniones, asociaciones y reconstrucciones.
5. Usar lo encontrado en un juzgado.
Las necesidades de las ciencias forenses son: clasificación y medición objetiva, robustez y
seguridad ante falsificaciones. Los retos que hay de por medio son pruebas escondidas, las
hipótesis tienen que tener una base de conocimiento parcial...
COMPUTER FORENSICS:
Se define como la investigación basada en hipótesis que se resuelve mediante ordenadores. Se
utilizan para entender más a fondo una disciplina forense, evaluar un método o para un
acercamiento sistemático a las ciencias forenses. Un ejemplo sería la detección de armas en
vídeos, retrato robot asistido por ordenador, reconstrucción facial basada en análisis de ADN,
descubrir redes terroristas...

TAXONOMÍA DE SW Y PROPIEDAD INTELECTUAL:


TIPOS DE SW:
Una disciplina que abarca el estudio y la aplicación de los conocimientos de ingeniería en el
ámbito del ciclo de desarrollo software, considerando la construcción, el análisis y la gestión
de software.
Puede tener un propósito general o específico; y ser de tipo código, librería, toolbox o suite.
Los aspectos clave para escoger un software son:
 Novedad: debe haber un análisis cuidadoso basado en características básicas y
específicas además de categorizar el software existente.
 Usabilidad: debe adoptar el modelo de código abierto, pues facilita nuevos desarrollos
y mejora el nivel de aplicabilidad.
 Relevancia: debe mejorar la visibilidad y el matenimiento del software y, si es
relevante, debe poder publicarse en revistas científicas.
 Interoperabilidad: debe prestar atención a los estándares existentes y contribuir al
desarrollo de nuevos estándares.
PROTECCIÓN DE SOFTWARE:
La propiedad intelectual es el conjunto de derechos que corresponden a los autores y a otros
titulares (artistas, productores, organismos de radiodifusión...) respecto de las obras y
prestaciones fruto de su creación. Al Ministerio le corresponde proponer las medidas,
normativas o no, para lograr la adecuada protección de la propiedad intelectual. Se basa en
derechos morales, de caracter patrimonial y en el límite legal por copia privada.
El software puede ser distribuído de forma comercial o libre. Algunas licencias de distribución
son GPL, LGPL, AGPL...
DETECCIÓN DE PLAGIO:
 JPlag.
 Sherlock.
 Turnitin.

SEGURIDAD, PRIVACIDAD Y PROTECCIÓN DE DATOS:


TECNOLOGÍAS PARA LA SEGURIDAD INFORMÁTICA:
La seguridad informática se refiere a protección del hardware, software y datos e información.
Su objetivo es identificar y eliminar vulnerabilidades en los tres aspectos mencioandos con
medidas preventivas y paliativas. Así, nos defenderemos contra ataques tippo phishing,
correos infectados; mediante tácticas de ingeniería social.
Los elementos clave son el protocolo de extensión (https/http) y el certificado del software.
Para asegurarnos de tener una conexión segura, usaremos la el cifrado mediante el cual
transformamos un mensaje utilizando un algoritmo o clave. El descifrado exige una clave
simétrica (ambos tienen la misma clave) o asimétrica (tienen diferente clave). a la de cifrado. El
cifrado se realiza por sistema ASCII (8 bits) o UNICODE (16 bits).
En la criptografía asimétrica, la clave pública debe ser conocida por todo el mundo mientras
que la práctica sólo puede conocerla el propietario.
La firma digital permite autenticación, integridad y no repudio en origen. El emisor cifra el
mensaje con su clave privada y el receptor descifra el mensaje con la clave pública del emisor.
PRIVACIDAD Y TECNOLOGÍAS DE LA INFORMACIÓN:
Una navegación segura se realiza mediante plugins de confianza, revisando la configuración
del navegador, con cookies propias o de terceros...
La amenaza de la seguridad son los virus, que son malware utilizados para pérdida de
información, suplantación de identidad, toma de control del equipo... Los virus pueden ser:
 Troyanos.
 Gusano.
 Spyware.
 Ransomware.
Para la protección de datos, hay políticas de privacidad, acuerdos entre usuarios y compañías,
Reglamento General de Protección de Datos...

SISTEMAS BASADOS EN CONOCIMIENTO:


INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL:
La Inteligencia Artificial tiene un objetivo que son las capacidades que consideramos
inteligentes cuando las realiza un humano. Involucra áreas de paradigmas genéricos
(aprendizaje, percepción) y tareas específicas (jugar al ajedrez).
Consta de un pensamiento basado en el modelo cognitivo y un comportamiento basado en el
Test de Turing. Hay distintos tipos de sistemas:
 Que piensan como humanos: modelo de funcionamiento de la mente humana,
con una establecimiento sobre el funcionamiento de la mente y, a partir de ahí, se
establecen modelos computacionales.
 Que piensan racionalmente: utilizan leyes del pensamiento basadas en la lógica
formal.
 Que actúan racionalmente: el paradigma es el agente, que percibe y actúa. Tiene
las capacidades necesarias que coinciden con las del Test de Turing. Es el objetivo
de la IA fuerte y sirve para diseñar programas que tengan comportamiento
humano.
La IA se basa en fundamentos filosóficos, matemáticos, económicos, de la neurociencias, de la
psicología, de la computación, cibernética… En las áreas básicas consiguen resolución de
problemas; y en la específica consiguen planificación de tareas, razonamiento automático,
percepción…
SISTEMAS BASADOS EN CONOCIMIENTO:
La ingeniería del conocimiento es una disciplina moderna cuyo fin es el diseño y desarrollo de
estos sistemas. Estos sistemas representan y usan conocimiento para resolver problemas
complejos. Aquí podemos ver robots, reconocimiento de imágenes, juegos, electrónica
inteligente…
El conocimiento reside en reglas y hechos; y su control se rige por detección de reglas
aplicables, elección, aplicación, actualización y repetición.

APRENDIZAJE AUTOMÁTICO:
Es el área de la AI que diseña algoritmos capaces de generalizar comportamientos y reconocer
patrones a partir de ejemplos. Se basa en la inducción y siempre hay un grado de error puesto
que la generalización no es siempre perfecta. Se usa, por ejemplo, etiquetado automático de
fotografías.
Aborda problemas como la clasificación (binaria o multiclase), prediciendo la clasificación de
objetos sobre un conjunto de clases prefijadas.
Hay varios tipos de algoritmos de aprendizaje automático, siendo los más importantes el
supervisado y el no supervisado.
 NO SUPERVISADO: se basa en el agrupamiento. Soluciona los problemas mediante la
regresión, el ranking. Un ejemplo sería el árbol de decisión, formado por ndoos-
respuesta y nodos-decisión. El aprendizaje automático consta de un entrenamiento y
un test; y se evalúa con medidas de error en estos pasos.

ANÁLISIS INTELIGENTE DE DATOS:


El análisis inteligente de datos es un proceso general, consistente en la utilización de técnicas
de IA sobre datos, para producir información o conclusiones útiles para el apoyo a la toma de
decisiones. Incluye tareas como:
 Pre-procesado de datos.
 Limpieza de datos incompletos.
 Análisis exploratorio y modelado.
En el modelado, el análisis se realiza mediante aplicaciones como Weka o R, que incluyen
herramientas de preprocesado, visualización y modelado. La validación cruzada se utiliza
cuando hay pocos datos, para evitar sesgos en el training set.

GENERACIÓN DE LENGUAJE NATURAL:


Esta generación se realiza mediante XAI, Natural Language Processing…
Existen diferentes tipos, como Text-to-Text, Dialog systems o Data-to-text. Los D2T generan
textos entendibles a partir de datos no lingüísticos.
SISTEMAS D2T:
Son capaces de procesar muchos datos y convertirlos en textos comprensibles que tienen
información importante para usuarios humanos. Son útiles, por ejemplo, para ayudar al
usuario a entender un informe del tiempo. A partir del Big Data, obtenemos información y
conocimiento.
Una de las formas de obtener datos es la visualización, analizando datos mediante
representaciones gráficas. Estos sistemas se basan en: determinación del contenido,
estructuración del texto, agregación de frases, lexicalización y realización de lengua y
superficie.
VISIÓN POR COMPUTACIÓN E IDENTIFICACIÓN FORENSE:
VISIÓN POR COMPUTACIÓN:
En escenas de vídeo, se puede realizar una clasificación, detección y segmentación de objetos.
Para clasificar un objeto han de tenerse características representativas de cada categoría.
Las redes de neuronas artificiales son algoritmos de aprendizaje automático que se
componen de un conjunto de nodos que realizan operaciones aritméticas básicas.
Una neurona puede tener un perceptrón simple (una capa de entrada y otra de salida) o un
perceptrón multicapa. La solución a problemas de visión por ordenador es el uso de neuronas
localmente conectadas y con pesos compartidos, que da lugar a las redes neuronales
convencionales.
El aprendizaje profundo son un conjunto de técnicas de aprendizaje basadas en RNA para
modelar una representación jerárquica de los datos.
IDENTIFICACIÓN FORENSE:
Se realiza mediante la superposición craneofacial, que es la técnica de la antropología forense
con mayor aplicabilidad. Tiene gran potencial post-mortem y ante-mortem. Se divide en tres
etapas:
1. Obtención y procesamiento de materiales.
2. Solapamiento cráneo-cara.
3. Toma de decisiones.
Las técnicas de visión por computador sueles ser muy útiles para automatizar el proceso de
SCF pues incluyen procesado, análisis, segmentación y registrado de imágenes de forma
automática. Cuando se usa esta técnica, nos fijamos en la órbita craneal y centro del globo
ocular y en la medida del ancho de la nariz.

TECNOLOGÍAS DE BÚSQUEDA:
LA WEB:
En cualquier link de una página web, podemos encontrar cuatro partes:
 Protocolo: http/https
 Servidor: en.wikipedia.org
 Ruta al recurso: wiki/South_Wales
 Fragmento en la página web: History
En cualquier comunicación, hay un cliente que solicita y un servidor que responde.
Todos los ordenadores en Internet tienen una dirección IP, que identifica a cada máquina y
permite que los mensajes lleguen a su destino.
En el enrutamiento, el mensaje va dando saltos hasta llegar a sud estino, similar a las cartas
por correo ordinario: Buzón – Sucursal Local – Avión – Destinatario.
RECUPERACIÓN DE INFORMACIÓN:
RI es encontrar material (usualmente docs) de naturaleza no estructurada (usualmente texto)
que satisfaga una necesidad de información en grandes colecciones almacenadas en
computadoras. Esta información puede ser no estructurada, semi-estructurada o indexado.
Además hay consultas libres y ranking por relevancia.
Por otro lado, la recuperación de datos es estructurada o mediante indexación por campos,
con un lenguaje de consulta cerrado y sin ranking.
La RI se aplica para búsqueda de anuncios, expertos, multimedia, emails...
LA WEB Y SEARCH ENGINES:
En la web existen motores de busqueda tipo Google, caracterizados por:
 Dinamismo.
 Duplicidad.
 Autoridad/credibilidad.
 Análisis y texto de los enlaces.
 Su historia podría datarse desde 1990 con Archie Query Form hasta 2009 con Bing.
COMPONENTES BÁSICOS DE UN SISTEMA DE RI:
RASTREO:
Su modo de operación se caracteriza por:
1. Iniciar conj. De páginas semillas.
2. Tomar URL, recuperar y parsear la página, extraer URls de la página y añadir URLs
a la cola.
Sus retos serían la escalabilidad, páginas spam, spider traps, duplicidad, ratio de revisita
variable…
INDEXADO:
Es fundamental para hacer la información accesible. Puede ser manual (un humano asigna
términos de indexación por una terminología y hay poca escalabilidad) o automática (realizado
por ordenadores usualmente a full-text; usado para ponderación de términos, análisis de
enlaces, o recopilación de información).
Para indexar hay un proceso de preprocesamiento de la información, obtener el contexto, y
procesar el lenguaje natural (necesaria alta precisión).
BÚSQUEDA:
Se puede realizar mediante el emparejamiento exacto, donde hay dificultad de comprensión
de las conectivas booleanas, es difícil controlar el tamaño del conjunto de salida y hay
estimación binaria de la relevancia.
En el ranking hay consulta en lenguaje natural libre, ponderación de términos y funciones de
ranking como modelos probabilísticos.
Un ejemplo sería Page Rank, donde hay un sistema democrático de la votación y es una
medida objetiva de la importancia.
Para mejorar la búsqueda es necesario una realimentación de relevancia y una selección de
términos y expansión de consultas.
En el agrupamiento, hay grupos no predefinidos y se descubren las clases de ejemplos.
En el filtrado, hay un flujo de docs y un perfil de interés; además, se realiza de forma
adaptativa.
En la generación automática de resúmenes, hay unos grados de reducción, informativos y
bien formados, que está orientado a consulta.
RETOS:
Para ver los retos que hay que afrontar, veremos los temas comunes:
 Buscar modos de crear colas, modelos de interacción…
 Ayudar a usuarios para llevar información a gente inexperta, analfabeta o
discapacitada.
 Incorporar lo que pasa alrededor del usuario para afectar en el resultado de la cola.
 Llevar la RI a tipos complejos de datos con resultados más complejos.
 Considerar información que no es sólo texto y que no ha sido explorada a fondo por
RI.
 Temas que requieren evaluación en el contexto de retos nuevos.

Potrebbero piacerti anche