domingo, 15 de noviembre de 2020

¡BIENVENIDOS A MI BLOG! LA INFORMATICA

ESTE BLOG DE INFORMATICA, CONTIENE INFORMACIÓN NECESARIA, SOBRE LOS ASPECTOS MÁS IMPORTANTES DEL COMPUTADOR Y SUS PARTES, TODO LO REFERENTE A TERMINOS INFORMATICOS Y TECNOLOGICOS, ASÍ COMO LOS AVANCES QUE HAN TENIDO CON RESPECTO  A ESTOS DOS TERMINOS.ES PERO QUE DISFRUTEN Y LES SIRVA DE ALGO DICHA INFORMACIÓN.

EL MUNDO DE LA INFORMÁTICA

Fondos de Pantalla Globo terráqueo Computadora portátil 3D ...

 ¿QUE ES LA INFORMÁTICA?


La informática o ciencia de la computación es la ciencia que estudia el tratamiento automático y racional de la información. Una definición más específica es el conjunto de conocimientos científicos y técnicos que hacen posible analizar la información por medio de ordenadores electrónicos.

La palabra "informática" se deriva del francés informatique acuñado por el ingeniero Philippe Dreyfus en 1962. En español es la contracción de INFORmación autoMÁTICA y en inglés se le conoce como computer science (ciencia de la computación).

Todo aquello con lo que adquirimos conocimiento es información. Cuando ejecutamos un programa en la computadora, estamos procesando información. Vivimos en una sociedad en donde la obtención y uso de información es de vital importancia.

Características de la informática

La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:

  • Su objeto de estudio puede resumirse en el tratamiento automatizado de la información mediante sistemas digitales computarizados.
  • Se propone tanto el abordaje teórico como el práctico de los sistemas informáticos, aunque no se trata de una ciencia experimental.
  • Toma en préstamo el lenguaje formal de la lógica y la matemática para expresar las relaciones entre los sistemas de datos y las operaciones que estos ejecutan.
  • Es una de las disciplinas científicas más jóvenes, surgida formalmente en la segunda mitad del siglo XX.

Historia de la informática

Al contrario de lo que se cree, la informática es anterior a la invención de las computadoras. Posee muy antiguos antecedentes en las máquinas de cálculo mentales de los filósofos de la Antigüedad Griega, como Euclides (c. 325-265 a. C.) y su famoso algoritmo, o bien en las calculadoras mecánicas del siglo XVII y las máquinas programables del siglo XIX.

Sin embargo, en la primera mitad del siglo XX se creó la tecnología necesaria para desarrollar las primeras computadoras. Entre esos avances se encuentra el tubo al vacío, las puertas lógicas y los primeros circuitos, lo cual inauguró un campo del saber que muy pronto revolucionó a todos los demás y cambió la forma en que pensamos el trabajo.

También fue central el trabajo en algoritmos durante las primeras tres décadas del siglo, bajo el genio de figuras como el matemático británico Alan Turing (1912-1954). Por otro lado, el contexto de la Segunda Guerra Mundial impulsó a los primeros calculadores automáticos que se dispusieron para descifrar los códigos de guerra del enemigo.

La primera máquina de cálculo totalmente programable y automática fue inventada en 1941, llamada Z3, y en 1944 la primera máquina electromecánica, en la Universidad de Harvard en Estados Unidos: la Mark I.

Desde entonces, los sistemas informáticos no cesaron de cambiar. Se incorporaron nuevas tecnologías como los transistores, los semiconductores y diversos mecanismos de almacenamiento de información, desde las tarjetas perforadas hasta las primeras cintas magnéticas.

El primer computador de la historia fue el ENIAC (1946), de la Universidad de Pensilvania, que ocupaba un cuarto completo. Fue el primero de varias generaciones de sistemas informáticos por venir, cada vez más pequeños y potentes.

Las primeras escuelas de computación, en el marco de las universidades, surgieron entre las décadas de 1950 y 1960. Paralelamente la industria informática, naciente pero poderosa, que permeó todas las demás áreas del saber humano en apenas 60 años de desarrollo.

¿Para qué sirve la informática?


La informática tiene como propósito clave el almacenamiento y la recuperación de información, lo cual ha sido una de las preocupaciones clave de la humanidad desde el inicio de los tiempos. En ese sentido, el primer sistema de almacenamiento fue la escritura misma, que permitía codificar mensajes y recuperarlos luego a través de marcas sobre una superficie.

Vista así, la informática ha llevado ese mismo principio al máximo, creando sistemas y aparatos que almacenen, produzcan, transmiten y reproducen información de manera masiva, eficiente y veloz. No en balde la informática interviene hoy en día en prácticamente todos los demás campos del saber de un modo o de otro.

Importancia de la informática

La importancia de la informática hoy en día no podría ser más evidente. En un mundo hiper tecnologizado e hiperconectado, la información se ha convertido en uno de los activos más preciados del mundo, y los complejos sistemas informáticos que hemos construido nos permiten administrarlo de manera más veloz y eficiente que nunca antes en la historia.

La computación es una de las disciplinas de mayor demanda en el mercado universitario del mundo. Tiene la mayor y más rápida salida laboral, dado que casi ningún aspecto de la vida cotidiana se mantiene al margen todavía del mundo digital y de los grandes sistemas de procesamiento de información.

La big data (o “gran información”) que nuestros dispositivos reúnen de nosotros es evidencia de ello: vivimos realmente en la era de la información, y la informática entonces no podría ser más importante.

videos de la historia de la informática y de qué trata :

 









sábado, 14 de noviembre de 2020

CONCEPTOS BÁSICOS DE INFORMÁTICA

 Los conceptos más básicos de la informática son el hardware y el software.


CLASIFICACIÓN (HARDWARE Y SOFTWARE)

 

Básicamente una computadora consiste de dos partes: el hardware y el software. El hardware es un término genérico utilizado para designar a todos los elementos físicos que lo componen, es decir, gabinete, monitor, motherboard, memoria RAM y demás.

 

En tanto, el software es todo aquello que le proporciona a la computadora las instrucciones necesarias para realizar una determinada función. Entre ellos se destacan el sistema operativo, juegos, controladores de dispositivos, programas de usuario y demás.

 









viernes, 13 de noviembre de 2020

GRÁFICOS EN LA INFORMÁTICA Y TIPOS

 

GRÁFICOS

La informática gráfica (IG) es la rama de la informática que se encarga de la creación de representaciones gráficas con el ordenador a través de software especializado, es decir,es el conjunto de técnicas para la producción, almacenamiento y manipulación de imágenes utilizando la computadora con base en programas informáticos. En la actualidad, la informática gráfica se usa en muchas áreas de la industria, los negocios, la educación, el ocio, etc. La lista de aplicaciones es amplia y crece velozmente porque las computadoras y los programas con capacidades gráficas son más prácticos y efectivos. Los gráficos por computadora se definen como la creación y manipulación de imágenes gráficas por medio de un ordenador. Sin embargo, esta breve definición no describe la variedad de aplicaciones y el impacto de este campo desarrollado por la ciencia de la computación. Indudablemente, los gráficos por computadora iniciaron como una técnica para aumentar la información de la pantalla creada por un ordenador. Esta propiedad de reconocer y transcribir datos numéricos en imágenes ha acentuado representativamente la capacidad del ordenador de presentar información al usuario de una forma clara y entendible. Es aquí donde surgen herramientas tales como la multimedia e informática gráfica, mismas que sirven como aplicaciones básicas para la interfaz gráfica.

PRINCIPALES CAMPOS DE APLICACIÓN. La informática gráfica (IG) desarrolla técnicas que facilitan el procesamiento automático de la información gráfica. Sin embargo, existen varias formas de procesar dicha información y cada una de ellas puede dar origen a un campo o subárea de aplicación dentro de la informática gráfica (como se muestra en la figura siguiente). Las incursiones de la IG son muy diversas e incluyen un gran número de áreas y disciplinas así como usos.


Interfaces gráficas. La interfaz gráfica de usuario GUI (Graphical User Interface) es una aplicación que funciona a través de intercomunicación, usando un grupo de imágenes y objetos gráficos para visualizar la información y actividades disponibles en la interfaz. Su función principal radica en facilitar un medio visual sencillo para facilitar la interacción con el sistema operativo de una computadora. Una interfaz es un mecanismo que facilita la comunicación entre dos medios que no comparten el mismo lenguaje. Hablando de aspectos técnicos, se utiliza el concepto interfaz para referirse al conjunto de conexiones y dispositivos que hacen realidad la comunicación entre dos sistemas. Pero, específicamente, al referirnos a la interfaz hablamos del lado visible de los programas tal y como se le presenta al usuario final para que interactúe con la computadora. La interfaz gráfica requiere la existencia de un monitor de computadora o pantalla compuesta por un conjunto de menús e íconos que muestran las opciones que el usuario puede elegir dentro del sistema. Las características básicas de una buena interfaz se resumen en esta figura:

 

Los expertos en sistemas informáticos sostienen que el éxito de un sistema informático depende verdaderamente de la eficacia de su interfaz, por lo que concluimos que el éxito de un hipertexto depende de su interfaz. Animación. La animación es un procedimiento usado por uno o más diseñadores para dar la apariencia de movimiento a imágenes, dibujos y otro tipo de objetos. A este efecto se le considera un efecto visual óptico. Hay múltiples procedimientos para efectuar animación que van más lejos de los tradicionales dibujos animados. Los recuadros animados se pueden obtener dibujando, iluminando o ilustrando los mínimos cambios hechos repetidamente a un modelo de la realidad o a un modelo tridimensional virtual; es posible también animar objetos y a actores reales. Entre los formatos de animación más comunes que admiten animación podemos encontrar el GIF (Graphic Interchange Format o Formato de intercambio de gráficos), el SWF (Small Web Format o Formato Web Pequeño), la animación flash, etc. Las animaciones en GIF son almacenadas imagen por imagen, aunque existen animaciones que no lo hacen así, sino que son interpretadas y"ensambladas" en tiempo real, al ejecutarse, como las animaciones SWF.

Elaborar una animación puede ser un trabajo complicado y rutinario. Por esta razón, la mayor parte de la producción la realizan empresas de animación que se encargan de desarrollar esta tarea. Aun así, existe la animación de autor, que se genera por el trabajo individual de uno o de unos cuantos animadores. En la actualidad, los diseñadores se apoyan de las nuevas tecnologías para facilitar la animación, inician el proceso de animación cuando desarrollan un modelo del personaje o el objeto que se va a animar, enseguida aplican las técnicas de los programas de animación especializados para apegarse al script preestablecido y así conseguir el objetivo final. Videojuegos. Un videojuego o juego de vídeo es un juego electrónico de habilidad o destreza en el que una persona o más interactúan con el videojuego, el cual puede ser presencial o a distancia, por medio de un controlador o control, con un sistema provisto de imágenes de vídeo. Al dispositivo de entrada utilizado para operar el videojuego se le denomina controlador de videojuego y cambia dependiendo del sistema operativo que lo soporta; un controlador o control puede soportar un solo botón y una palanca de mando(joystick), mientras que otros controles pueden soportar una docena de botones y una o más palancas de control. Generalmente, los videojuegos utilizan otras formas, aparte de la imagen, para proporcionar la interactividad e información al jugador. El audio es casi universal, utilizándose medios de reproducción de audio, tales como altavoces y auriculares. Otro tipo de feedback se obtiene por medio de periféricos hápticos que generan vibración o retroalimentación de fuerza; también a veces se utiliza la vibración para emular la retroalimentación de fuerza. La mayoría de las veces, los videojuegos recrean escenarios y ambientes virtuales en lo sque el participante manipula a uno o más personajes para obtener una o mas metas a través de reglas establecidas. Se interactúa por medio de la ejecución del videojuego en un periférico del tipo salida de multimedia como una laptop, una computadora, un monitor o un proyector. Síntesis de imágenes. La síntesis gráfica se presenta cuando una figura reduce su forma original manteniendo el uso de líneas y planos, pero en mínima cantidad. Cada método usado para simplificar genera un resultado visual distinto, aunque el contorno y la esencia general de la misma permanezca o sufra cambios mínimos. Para lograr una síntesis gráfica debemos considerar la morfología, que en el diseño es la disciplina que se encarga de la reproducción y las propiedades de la forma. La síntesis gráfica se refiere al momento en que una figura simplifica su forma original conservando el uso de líneas y planos, pero en menos proporción. Existen varias formas de conseguir la síntesis de una imagen, entre las más comunes se encuentran:  Síntesis en dibujo lineal: consiste en capturar los mayores detalles de las líneas que dan forma a las figuras.  Síntesis del contorno: se refiere al recorrido de la línea que encierra a la figura para convertirlo en un solo plano que es la forma de la figura. Diseño. Es el proceso a través del cual se dibuja un plan de acción y, en función de este, se escogen determinados elementos con el fin de desarrollar un producto visual que transmita un mensaje a un receptor. Diseñar es el proceso de creación de un nuevo objeto, servicio o mensaje. El diseño se utiliza en todos los entornos y se ubica en todos los segmentos, pero es en la publicidad y en internet donde tiene actualmente su mayor aplicación creativa. La línea es el primer elemento del diseño, organiza la información y permite dirigir el ojo y la atención del lector hacia un propósito determinado. El diseño gráfico se refiere a la creación mediante gráficos y sus principales objetivos son:  Crear una imagen.  Comunicar con ella un mensaje, sea este publicitario o no.  El contexto.  Comunicar mensaje.  Integrarla en un contexto. Sus principales herramientas son: las formas, el color, la tipografía, los medios, los programas, el espacio. El diseño gráfico es la disciplina que permite proponer, elaborar y proyectar todo tipo de ideas o mensajes gráficos, en un ambiente de comunicación visual en el que todo el tiempo estamos relacionados: cuando transitamos por la calle (los carteles), cuando leemos una revista, un periódico o simplemente vemos televisión. TRANSFORMACIÓN 2D. Uno de los más grandes beneficios de los gráficos generados por computadora es la capacidad de efectuar algunas transformaciones o cambios sobre las imágenes. Estos cambios son fáciles de realizar porque la imagen gráfica ha sido codificada en forma de números y almacenada en un archivo. Los números son susceptibles a los procedimientos matemáticos llamados transformaciones. Los objetos se especifican por medio de un conjunto de puntos (números). Las transformaciones son procesos que determinan nuevas ubicaciones de estos puntos, transformado el tamaño y orientación del objeto. Las operaciones básicas de la transformación 2D son:  Traslación.  Escalamiento.  Rotación. Las transformaciones facilitan modificar de una forma uniforme toda la imagen. Estas transformaciones son el medio para construir o modificar imágenes u objetos. La rotación, traslación y escalamiento (entre otras) son tales transformaciones. Cada transformación utiliza un punto (x, y) para generar un nuevo punto (x’, y’). TRANSFORMACIÓN 3D. La representación de las transformaciones en tres dimensiones es una generalización de la de dos dimensiones, es decir, las transformaciones 3D son equivalentes a las transformaciones 2D. Los puntos significan coordenadas homogéneas como cuartetos(ver figura 15) y las matrices de transformación son de 4x4.


 

Una escena 3D se define por los puntos, las líneas y los planos que la componen. Es necesario un sistema para poder referenciar las coordenadas (al igual que en 2D), pero hace falta un tercer eje, Z, perpendicular al X y al Y para obtener un eje de coordenadas completo y así lograr la transformación 3D. Por ejemplo, en la transformación 2D se cuenta originalmente con coordenadas (matrices) 2x2, pero sólo permite operaciones del tipo:


Por lo que se cambia a matrices 3x3, operando coordenadas homogéneas:


Luego entonces, en 3-D, empleando la misma medida, se tiene que pasar a matrices 4x4:


sta metodología puede parecer un tanto complicada, pero los softwares de animación lo aplican de manera automática para la animación en 3D.































































































































































































¿QUE ES EL COMPUTADOR, LAS PARTE Y SU HISTORIA ?

 

DEFINICIÓN DEL COMPUTADOR

 Una computadora es un dispositivo informático que es capaz de recibir, almacenar y procesar información de una forma útil. Una computadora está programada para realizar operaciones lógicas o aritméticas de forma automática.

 

Esta palabra se utiliza en la mayoría de países de Hispanoamérica, aunque en Chile y en Colombia es más común en masculino ('computador'). En España se usa más el término 'ordenador' (del francés ordinateur). 'Computadora' procede del inglés computer y a su vez de latín computare ('calcular').

 

 PARTES DE UNA COMPUTADORA

 

Los elementos básicos de una computadora son la memoria (RAM y ROM), la tarjeta madre, el procesador, microprocesador o CPU (siglas en inglés para el concepto de 'unidad central de procesamiento', compuesta a su vez por la unidad de control y la unidad aritmético lógica) y los dispositivos de entrada y salida. Estos dispositivos auxiliares o periféricos son variados. Algunos de ellos son: el disco duro, el monitor, el ratón, el teclado, la impresora o los altavoces.




HISTORIA DE LA COMPUTADORA

 La historia de la computadora es el recuento de los eventos, innovaciones y desarrollos tecnológicos del campo de la informática y la automatización, que dieron origen a las máquinas que conocemos como computadoras, computadores u ordenadores. Registra además su mejoramiento y actualización hasta alcanzar las versiones miniaturizadas y veloces del siglo XXI.

 

Charles Babbage inventa en 1882 la llamada 'máquina diferencial' y posteriormente diseña la 'máquina analítica' cuyos elementos como la memoria, el flujo de entrada y el procesador incluyeron en posteriores computadoras más avanzadas. La MARK I, basada en dispositivos electromagnéticos, supuso también un hito en este campo.

 

Las computadoras, como todos sabemos, son las máquinas de cálculo más avanzadas y eficientes inventadas por el ser humano. Están dotadas del suficiente poder de operaciones, la suficiente autonomía y velocidad como para reemplazarlo en muchas tareas, o permitirle dinámicas de trabajo virtuales y digitales que nunca antes en la historia habían sido posibles.

 

Durante la segunda mitad del siglo XX se produjeron grandes avances en el desarrollo de las computadoras llegando a un público masivo y con la capacidad de realizar múltiples operaciones.

 


 Computadora de escritorio

Una computadora de escritorio es un tipo de computadora personal que por sus dimensiones y características se utiliza en una ubicación fija, habitualmente sobre una mesa de trabajo (para uso doméstico o laboral). Este término se utiliza especialmente en Hispanoamérica y en España se conoce en ocasiones como 'ordenador de sobremesa'. Procede del inglés desktop que se podría traducir como 'encima o sobre el escritorio'. Se diferencia así del término 'laptop' o computadora portátil.

 

Computadora cuántica

Una computadora cuántica es un sistema de circuitos cuánticos que es capaz de realizar cálculos complejos y que actúa en un espacio de estados. Se basa en una secuencia de transformaciones unitarias (o compuertas cuánticas) y una medición. Utiliza el qubit (bit cuántico) como unidad de información cuántica. Este tipo de computadoras puede realizar cálculos de forma rápida en comparación con los computadores habituales.

 

Computadora personal

 

Una computadora personal es una microcomputadora que permite ser utilizada por un único usuario de forma simultánea (o varios, dependiendo del sistema operativo). Este concepto procede del inglés personal computer (PC). De forma habitual, se suele hablar de 'computadora personal' o PC para referirse a los ordenadores comercializados a nivel usuario y que funcionan con un sistema operativo Windows de Microsoft.




¡BIENVENIDOS A MI BLOG! LA INFORMATICA

ESTE BLOG DE INFORMATICA, CONTIENE INFORMACIÓN NECESARIA, SOBRE LOS ASPECTOS MÁS IMPORTANTES DEL COMPUTADOR Y SUS PARTES, TODO LO REFERENTE ...