Sei sulla pagina 1di 8

Francisco ceballos 4-796-932

Grupo2Im701
Ingeniería Mecánica

El primer ingeniero nos hablo sobre las redes informáticas y sus usos y los ataques que le
ocurren a la misma.
Una red informática es un conjunto de dispositivos interconectados entre sí a través de un
medio, que intercambian información y comparten recursos. Básicamente, la comunicación
dentro de una red informática es un proceso en el que existen dos roles bien definidos para
los dispositivos conectados, emisor y receptor, que se van asumiendo y alternando en
distintos instantes de tiempo.
Los dispositivos conectados a una red informática pueden clasificarse en dos tipos: los que
gestionan el acceso y las comunicaciones en una red (dispositivos de red), como módem,
router, switch, access point, bridge, etc.; y los que se conectan para utilizarla (dispositivos
de usuario final), como computadora.
Los que utilizan una red, a su vez, pueden cumplir dos roles (clasificación de redes por
relación funcional): servidor, en donde el dispositivo brinda un servicio para todo aquel que
quiera consumirlo; o cliente, en donde el dispositivo consume uno o varios servicios de uno
o varios servidores. Este tipo de arquitectura de red se denomina cliente/ servidor.
Por otro lado, cuando todos los dispositivos de una red pueden ser clientes y servidores al
mismo tiempo y se hace imposible distinguir los roles, estamos en presencia de una
arquitectura punto a punto o peer to peer. En Internet coexisten diferentes tipos de
arquitecturas.
Actualmente en la Universidad Tecnológica de Panamá solo hay 300 mb/s y en nuestro
centro llega 100 mb/s, principalmente era de 50 mb/s pero con un convenio con cables
Wireless la subieron a 100mb/S.
Clasificación
Considerando el tamaño o la envergadura de una red, podemos clasificarlas de la siguiente
manera:

 LAN (Local Area Network) o red de área local: es una red cuyo rango de alcance se limita
a un área relativamente pequeña, como una habitación, un edificio, un avión, etc. No
integra medios de uso público.
 WAN (Wide Area Network) o red de área amplia: se extiende sobre un área
geográfica extensa empleando medios de comunicación poco habituales, como
satélites, cables interoceánicos, fibra óptica, etc. Utiliza medios públicos.

La velocidad a la cual viaja la información en una red está dada por la velocidad máxima que
soporta el medio de transporte. Entre los medios más comunes podemos afirmar que la
fibra óptica es la más veloz, con aproximadamente 2 Gbps; después le sigue el par trenzado,
con 100 Mbps a 1000 Mbps; y por último, las conexiones Wi-Fi, con 54 Mbps en promedio.
Las velocidades pueden variar de acuerdo con los protocolos de red utilizados.
En panamá la velocidad máxima de descarga es de 300 mb/s gracias a el cables de fibra
óptica que actualmente están implementando. Los servidores de este servicio en nuestro
país.
Ventajas de las redes clásicas de computadoras:
* Compartir archivos y recursos informáticos como almacenamiento, impresoras, etc.
* Compartir internet.
* Comunicación de todo tipo entre las computadoras.
* Es muy barato crear una red de computadoras en un mismo edificio, especialmente con
el uso de WI-FI (inalámbrico).
Desventajas.
* La instalación puede ser costosa si las computadoras están muy distanciadas entre sí
físicamente (a cientos de kilómetros); aunque esto es cada vez más barato de hacer, incluso
internet solucionó muchos de estos problemas.
* Todavía sigue siendo un poco complicado crear la red (por lo menos para los usuarios más
inexpertos).
Arquitectura de red

De un punto de vista topológico, ésta puede tener la forma de una estrella, de un segmento
lineal o bus, de un árbol, de un anillo, de una estrella (jerárquica) o de una malla.

De un punto de vista tipológico, la arquitectura es respectivamente calificada como LAN


(local Area Network), MAN (Metropolitan Area Network) y WAN (Wide Area Network)
cuando la red se extiende en un perímetro local (menor a 1 km), metropolitano (menor a
100 km) y distancia larga.
En la universidad contamos con una red LAN.

Actualmente una buena arquitectura de red debe cumplir 4 características básicas:

Tolerancia a fallos
Una red tolerante a fallos es aquella que limita el impacto de un error de software o
hardware y que además puede recuperarse de dicho error rápidamente. Para que se
entienda mejor, si nosotros enviamos un mensaje y nos da un error de enrutamiento, la red
lo que tendría que hacer es mandar inmediatamente el mismo mensaje pero por otra ruta
distinta de tal forma que el destinatario no conoce dicho error y recibe sin problemas el
mensaje. Para aplicar este sistema utilizamos lo que se llama redundancia, y es simplemente
implementar varios caminos, soluciones, etc para que si uno falla, tengamos más y el
mensaje siempre llegue a su destinatario.
Escalabilidad
Esta característica no es otra que la de permitir el crecimiento de las redes sin repercutir en
su funcionamiento. Para que os hagáis una idea, cada semana se conectan miles de usuarios
nuevos y proveedores de Internet, para que esto no cree problemas de rendimiento se ha
creado un diseño jerárquico de capas para la estructura física y la arquitectura lógica. (Esto
lo veremos detenidamente más adelante).
Calidad del servicio
Para que una red suministre una buena calidad de servicio, crea lo que se denominan
prioridades, para que así, de esta forma, por ejemplo, se de más prioridad a un streamming
de video que a una página web, ya que esta última no requiere tantos servicios para
funcionar correctamente. Esto es algo que se ira entendiendo mejor a lo largo del manual.
Seguridad
Esta es la característica que más se esta desarrollando actualmente ya que es la que más
preocupa a la sociedad actual. La confidencialidad de los datos es primordial a la hora de
enviar mensajes a través de una red, y es por eso, que esta característica es a mi entender
junto con la tolerancia a fallos, son las dos más importantes y las que requieren mayor
desarrollo e investigación.
Como sistemas de seguridad, en las redes utilizamos los sistemas de contraseñas cifradas,
los firewall, los encriptadores de datos, etc.
Modelo ISO/OSI
Los fabricantes desarrollaron diferentes técnicas de transmisión (protocolos) como
respuesta a la necesidad de las comunicaciones en el área de la computación, para explorar
las mayores velocidades de transmisión y para implementar los grados de control más
sofisticados. El inconveniente estaba que cada fabricante trabaja por separado y no existía
la compatibilidad entre los equipos de diferentes marcas, comprometiendo al cliente con
un solo fabricante, limitándolo.
Los problemas de heterogeneidad de las redes de cómputo de una organización y la
dependencia hacia un solo fabricante influyó en el desarrollo de los sistemas abiertos. Éstos
buscan de manera básica lograr la independencia del hardware y sofware, portabilidad de
la aplicación y cumplimiento de los estándares.
ISO define un sistema abierto como todo el conjunto de interfaces, servicios y formatos de
soporte, además de otros aspectos de usuario para la interperabilidad o portabilidad de
aplicaciones, datos o personas, según se especifica en los estándares y perfiles de tecnología
informática.
Desarrollo de OSI
El modelo de referencia para la interconexión de sistemas abiertos OSI (Open System
Interconnection), fue aprobado por el organismo internacional ISO en 1984, bajo la norma
ISO/IS 7498.
Este modelo fue desarrollado por la necesidad de interconectar sistemas de distintos
fabricantes, por lo que fue hecho con base en necesidades generales de todos los sistemas,
de tal forma que los fabricantes pudieran apegarse a estas funciones
El modelo de referencia OSI proporciona una arquitectura de 7 niveles, alrededor de los
cuales se pueden diseñar protocolos específicos que permitan a diferentes usuarios
comunicarse abiertamente.

Una vulnerabilidad es una debilidad del sistema informático que puede ser utilizada para
causar un daño. Las debilidades pueden aparecer en cualquiera de los elementos de una
computadora, tanto en el hardware, el sistema operativo, cómo en el software.

Como ejemplo de vulnerabilidad podemos comentar el siguiente. En su casa hay una


computadora conectada a Internet, dónde además tiene configurada una cuenta de correo
electrónico a través de la que recibe mensajes diariamente. También tiene instalado un
antivirus que es capaz de chequear los mensajes electrónicos, incluidos los archivos que
están adjuntos. Pero el antivirus lo instalo cuándo compró el equipo hace más de un año y
no lo ha vuelto a actualizar. En esté caso su equipo es vulnerable a los virus más recientes
que puedan llegar mediante su correo electrónico, ya que el antivirus no está actualizado y
no sabe que éstos nuevos virus existen.

Pero una cosa sí que es cierta, que exista una vulnerabilidad no significa que se produzca
un daño en el equipo de forma automática. Es decir, la computadora tiene un punto flaco,
pero no por eso va a fallar, lo único que ocurre es que es posible que alguien ataque el
equipo aprovechando ese punto débil.

El riesgo es la posibilidad de que una amenaza se produzca, dando lugar a un ataque al


equipo. Esto no es otra cosa que la probabilidad de que ocurra el ataque por parte de la
amenaza.

El riesgo se utiliza sobre todo el análisis de riesgos de un sistema informático. Esté riesgo
permite tomar decisiones para proteger mejor al sistema. Se puede comparar con el riesgo
límite que acepte para su equipo, de tal forma que si el riesgo calculado es inferior al de
referencia, éste se convierte en un riesgo residual que podemos considerar cómo riesgo
aceptable.

La red Tor es ya muy conocida porque, básicamente, permite navegar por Internet de
forma anónima.Seguramente hayas escuchado hablar de ella y de la Deep Web, por lo que
hoy repasaremos estos temas con la idea de explicarte por qué se habla tanto de este
proyecto, cuáles son sus ventajas y desventajas y qué lo diferencia de otras herramientas.

Según sus propios creadores, Tor (The Onion Router) es una red de túneles virtuales que
permite a personas y grupos mejorar su privacidad y seguridad en Internet. También le da
a desarrolladores la posibilidad de crear nuevas herramientas de comunicación con
funcionalidades de privacidad incluidas, y provee una base para una variedad de
aplicaciones que permiten que empresas e individuos compartan información en redes
públicas sin comprometer su privacidad.

En otras palabras, se trata de una red compuesta por herramientas y software que te
ayudan a usar Internet de manera anónima y sin dejar rastros. Tor esconde el origen y el
destino de todo el tráfico que generas porque no revela la dirección IP y, además,
mantiene la integridad y el secreto de la información que viaja por ella. Por este motivo se
dice que esta tecnología pertenece a la Deep Web o Internet profunda, aquella que abarca
el contenido en Internet que no forma parte de la superficie, es decir, sitios y contenidos
que no son indexados por los motores de búsqueda tradicionales como Google.

De esta forma, previene que un desconocido del otro lado pueda saber quién eres o qué
estás buscando. Y como el destino de tu tráfico está escondido, también te ayuda a acceder
a sitios bloqueados en tu región por alguna razón.

Pero por otro lado, y no menos real, también muchos ciberdelincuentes aprovechan esta
forma de anonimización para ejercer actividades ilícitas como venta
de malware, crimepacks, armas, drogas e incluso sicarios.

Entonces, cualquiera puede ser anónimo… incluso un cibercriminal


En tiempos en que la privacidad se ha convertido en una preocupación para los usuarios de
Internet, tal como lo anticipábamos el año pasado en nuestro informe Tendencias 2014: el
desafío de la privacidad en Internet, Tor se convierte en un aliado para una gran cantidad
de internautas que pueden configurarlo en su navegador preferido. Esto no significa que
haya algo que esconder o que el comportamiento en la web sea inadecuado, sino
simplemente que a veces es preferible no compartir cierta información con extraños y
sobre todo con posibles atacantes del otro lado que husmean a la espera de una posibilidad
de propagar amenazas.

Ahora bien, sucede que en ocasiones los cibercriminales han encontrado en Tor un lugar
donde alojar malware, aprovechando justamente las posibilidades de anonimato que
ofrece. De este modo, cualquier tráfico generado por el malware que intente ser analizado
y capturado por autoridades o investigadores, resultará complicado de rastrear para
capturar a los ciberdelincuentes.

Así, hemos visto cómo el troyano Agent.PBI utiliza el protocolo HTTP mediante la red de
Tor para realizar acciones como la descarga de códigos maliciosos adicionales desde
Internet u otras ubicaciones remotas, ejecutar archivos y actualizarse a versiones más
recientes. Luego observamos cómo crecían las botnets basadas en Tor y los usuarios dentro
de ellas. De hecho, llegamos a ver hace poco a Simplocker, el primer ransomwarepara
Android basado en esta red.

Segundo ingeniero que fue a dar la charla.

El segundo ingeniero nos platico sobre lo que es la aplicación de autocad y sus creadores y
proveedores autodesk. AutoCAD es un programa extremadamente extenso, se puede hacer
muchas cosas y la cantidad de herramientas y opciones es inmensa, pero para fines
prácticos, se mostrarán las diez herramientas que más se van a utilizar. AutoCAD es un
programa que puede dibujar en 2 y 3 dimensiones, para dibujar en 2D el 95 % siguen
utilizando AutoCAD para realizar los planos.

Autodesk, Inc. es una compañía dedicada al software de diseño en 2D y 3D para las


industrias de manufacturas, infraestructuras, construcción, medios y entretenimiento y
datos transmitidos vía inalámbrica. Autodesk fue fundada en 1982 por John Walker y otros
doce cofundadores.

Autodesk está formada por seis divisiones centradas en distintas industrias:

 Soluciones de la manufactura (MSD)

 Soluciones Arquitectura, Ingeniería y Construcción Civil (AEC)

 División de Medios y Entretenimiento (M&E)


 Soluciones de plataforma y negocios emergentes (PSEB) que incluye soluciones
geoespaciales y de plantas, contenido y búsqueda así como los Laboratorios
Autodesk.

 Autodesk Consulting

 División de Servicios basados en locación (LBS)

Su principal producto es Autodesk AutoCAD pero se destacan para 2011 los siguientes:

 Autodesk Revit
 Autodesk 3ds Max
 Autodesk Maya
 Autodesk Mudbox
 Autodesk Sofimage XSI
 Autodesk Inventor
 Autodesk Alias
 Autodesk SketchBook
 AutoCAD Civil 3D, entre otros

Algunos productos descontinuados son:

 Autodesk Animator Pro para DOS


 Autodesk Animator Studio para Microsoft Windows

En la universidad actualmente se utiliza autocad en dibujos lineal y geométrico, para hacer


todo tipo de plano o diagramas ya sea en ingeniería civil sistemas o eléctrico . esta es una
herrmienta muy eficaz y útil que facilita el trabajo porque antes todo esto se debía hacer a
mano.

Cada cierto tiempo se realizan seminarios o capacitaciones sobre esta herramienta que es
muy ventajosa y útil en nuestro campo laboral y estudiantil.

Potrebbero piacerti anche