Un blog destinado a comentar noticias de todo tipo, contextualizar otras, explicar algunas. Inexpertos lleva este nombre por el hecho de ser administrada por estudiante de periodismo de primer año.
Comentarios, sugerencias, reclamos, todo es aceptado con el debido respeto.
Canción del día
Buen día a todo mundo! La canción del día de hoy es Fade Into Me, David Cook. Que tengan una hermoso día.
Al momento de tener una cámara digital, uno tiende a sacar todas las fotografís que quiera: las buenas. malas, regulares, excelentes, todas se van acumulando en varias carpetas hasta que la colección, fuera de control, pierde todo sentido, un poco como aquella caja de fotos de nuestros padres, que acumulaba tomas de varias décadas. Sólo que ahora cada año acopia el equivalente a una vida entera.
Las herramientas que vienen con Windows no dan abasto con semejantes galerías. Se necesitan programas adicionales y, desde luego, algo de tiempo. De otro modo, la ventaja de sacar fotos de altísima calidad a costos irrisorios con la posibilidad de enviarlas fácilmente por correo electrónico y hasta imprimirlas en casa con calidad de laboratorio se convertirá en una desventaja. Si se suma a esto que también sacamos fotos con el celular, el número nos abrumará y nunca podremos disfrutar de las imágenes que hemos recolectado.
Muchos programadores y empresas previeron hace mucho que esto iba a ocurrir y crearon lo que se conoce como organizadores de fotos. A continuación, algunos de los mejores programas disponibles:
XnView. Un clásico indisputable que, sin adornos ni funciones avanzadas, se orienta a la simple tarea de mostrar las colecciones por medio de miniaturas para organizar las fotos manualmente. Es el elegido por los usuarios más avanzados y está presente para casi toda plataforma informática existente, desde Windows 98/2000/XP hasta Linux y Mac OS X. Es gratis y está en español. Se lo baja de www.xnview.com
Picasa. Fue sólo cuando Google lanzó su propio organizador de fotos que esta categoría de software mostró lo que podía hacer para ayudar al usuario de cámaras digitales. ¿Qué tiene de especial el Picasa? Que echa mano de una silenciosa y poco conocida función de las cámaras digitales, el registro de fecha. Toda foto que sacamos tiene grabada la fecha y hora de la toma, aunque no la veamos. Es decir, aunque no se sobreimprima en la imagen, cada foto digital contiene estos datos en su interior.
Picasa lee esas etiquetas y organiza las fotos del disco duro en consecuencia y de forma automática. De esta forma simple e inteligente, la colección, que aparece como una secuencia de miniaturas, de la misma forma que en los otros programas del tipo, cobra mucho más sentido. El Picasa puede hacer una cantidad de otras cosas, como publicar en un blog y editar imágenes. Se lo baja sin cargo de http://picasa.google.com/. Ve el siguiente video sobre picasa:
Pictomio. Este software es una combinación de organizador de fotos tradicional con funciones avanzadas, como el ordenamiento por fecha. Pero su fuerte es el etiquetado geográfico. Los teléfonos celulares con GPS no sólo guardan la fecha y hora de las tomas, sino también la posición geográfica exacta en que fueron hechas; Pictomio lee dichas etiquetas y muestra la posición en un mapa o un globo terráqueo. También es posible etiquetar a mano las imágenes tomadas con una cámara digital convencional o las escaneadas de papel.
Pictomio aprovecha las placas de video con aceleración 3D y permite presentaciones de diapositivas muy atractivas. Está en español y se lo baja de www.pictomio.com .
DigiBookShelf Light. Este software japonés tiene una función semejante a la de los mencionados hasta aquí, pero con un método bien diferente y, al mismo tiempo, bien conocido por todos: crear álbumes virtuales. Obviamente, emulan los de papel y permiten añadir un número de fondos, adornos, texto y demás. Cada álbum puede exportarse como un ejecutable para compartirlo con otras personas. Para bajar el DigiBookShelf Light y sus accesorios hay que ir a ww.digibook.com/en/.
También te muestro una aplicación, en el siguiente video, para organizar las fotos en tu iPhone:
Se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.
Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web (WWW), que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.
Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times
Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.
Laconmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.
En el siguiente vídeo mostramos la historia de la o el internet en 9 minutos.
La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por cien años más.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.
En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.
La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.
Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:
La forma en que están construidas.
Forma en que el ser humano se comunica con ellas.
Primera Generación
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.
Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:
Estas máquinas estaban construidas por medio de tubos de vacío.
Eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).
En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.
Las características de la segunda generación son las siguientes:
Están construidas con circuitos de transistores.
Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebreWord Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3
Las características de esta generación fueron las siguientes:
Su fabricación electrónica esta basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.
En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.
A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.
A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.
Cuarta Generación
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
MODELO DE VON NEUMANN
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.
Como definición web en inglés significa malla, red, telaraña. Cuando la gente habla de web puede referirse a:
la World Wide Web (también conocida como «la Web»), el sistema de documentos (o páginas web) interconectados por enlaces de hipertexto, disponibles en Internet;
WorldWideWeb, el primer navegador web, más tarde renombrado a Nexus;
una página web, documento o fuente de información, generalmente en formato HTML y que puede contener hiperenlaces a otras páginas web. Dicha página web, podrá ser accesible desde un dispositivo físico, una intranet, o Internet;
un sitio web, un conjunto de páginas web, típicamente comunes a un dominio o subdominio en la World Wide Web;
un servidor web, un programa que implementa el protocolo HTTP para transferir lo que llamamos hipertextos, páginas web o páginas HTML. También se le da este nombre, al ordenador que ejecuta este programa.
Sabiendo esto podemos hablar de algunos momentos en la historia de la web, que se clasifican en: 1.0, 2.0 y 3.0!!!
La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.
La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.
El término Web 2.0 (2004–actualidad) está comúnmente asociado con aplicaciones web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario y lacolaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.
La Web 2.0 esta asociada estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicacionesnon-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cuál sea la definición más adecuada.
Lo anterior queda mejor explicado en el siguiente vídeo:
Una red social consiste en una estructura (social) en la cual existen individuos que están interrelacionados. Esas relaciones pueden ser de distinto tipo: intercambios finacieros, amistad, relaciones amorosas y más. Además cumple función de medio para la interacción-> chats, foros, juegos en línea, blogs, etcétera.
Un poquito de sus historia
De 1997 a 2001, AsianAvenue, Blackplanet y MiGente permitían a los usuarios crear relaciones personales y profesionales, creando perfiles que permitían a los usuarios identificar amigos en sus redes sin pedir la aprobación de esas conexiones.
Desde entonces diversas redes se han creado, unas permanecen y otras han desaparecido. Según la zona geográfica, el líder puede ir cambiando, pero hasta el 2009 los principales competidores a nivel mundial eran: Hi5, MySpace, Facebook, Tuenti, Twitter y Orkut.
El video a continuación nos muestra la publicidad y marketing junto con un poco de historia de las redes sociales en México:
MySpace se instaló en 2003 y se ha diferenciado de otros sitios porque permite a los usuarios personalizar sus páginas. Los adolescentes fueron los primeros en adoptarlo, y MySpace floreció a través de la atracción de este grupo demográfico. MySpace incluso ha modificado su política de usuario para permitir a los menores de edad crear sus propios perfiles a raíz de la demanda en el segmento de mercado. Conforme el sitio ha crecido, tres poblaciones se empezaron a formar: los músicos/artistas, jóvenes y adultos en su etapa posterior a la universidad.
Facebook fue creado originalmente para apoyar a las redes universitarias, en 2004 los usuarios del sitio estaban obligados a proporcionar las direcciones de correo electrónico asociada con las instituciones educativas. Este requisito lo llevó a ser un modelo de acceso relativamente cerrado, por lo que los usuarios tenían la percepción de la web como un sitio íntimo y privado de una comunidad demográfica cerrada. Facebook posteriormente se ha ampliado para incluir a los estudiantes de secundaria, profesionales, y finalmente todos los usuarios potenciales de Internet. A diferencia de otros SRS, en Facebook los usuarios sólo pueden hacer públicos sus perfiles a otros usuarios del sitio. Otra característica que distingue a Facebook es la capacidad para desarrolladores externos de crear aplicaciones, lo que permite a los usuarios personalizar sus perfiles y realizar otras tareas
Youtube no para!!! Su nuevo invento es: Reporters Center. Cada vez nos pone a prueba con nuevas invenciones online. Ahora lo que está por masificarse es el periodismo online vía youtube. ¿En qué consiste? Básicamente es que te dan como "tips" para que cualquier persona se convierta en periodista aficionado, ya que enseñan cómo hacer entrevistas, cómo chequer fuentes, entre otras cosas. Se encuentra en inglés bajo el nombre de "Reporters Cnter"
Otros organismos periodisticos como por ejemplo internautas.tv publican a traves de youtube sus notas, crónicas y reportajes principalmente de informacion interautica como por ejemplo: seguridad en la Red, tarifas, ofertas de acceso a Internet, calidad de los servicios, ciberderechos, agenda, aplicaciones, videojuegos, telefonía móvil, y en ocasiones, algo de astronomía. Los vídeos se pueden descargar en formato MPEG, Windows Media Vídeo, iPod, Psp, y Móvil.
El periodismo cuidadano es otro organismo periodístico, consiste en observar alrededor todo lo que ocurre en periodismo ciudadano: la participación de los lectores y el ciberactivismo en la red. Principalmente el objetivo es colaborar con la difusión de este fenómeno, así como en la formación y puesta en marcha de nuevas iniciativas, de ahí que también colaboran activamente en cursos, talleres, congresos etc.
Periodismo Ciudadano es un lugar para el debate. Desde estas páginas se ofrecen toda la información y recursos que existen sobre periodismo ciudadano, noticias de medios ciudadanos y blogs que tratan estos temas. Es un proyecto abierto a todos los que deseen participar enviando noticias, enlaces, comentando, dialogando o debatiendo sobre esta nueva forma de hacer periodismo.
Somos el punto de referencia del Periodismo Ciudadano en el mundo Hispano, a pesar de esto algunos enlaces o páginas están en Inglés, debido a que el desarrollo de esta nueva manera de informar ha evolucionado más rápido en el mundo angloparlante.
Esperamos que el debate llegue a generar nuevas formas y maneras de comunicación que ahora no conocemos o no tenemos muy claras.
La impresión offset es un método de reproducción de documentos e imágenes sobre papel o materiales similares, desarrollado por Ira Rubel a comienzos del siglo XX, que consiste en aplicar una tinta, generalmente oleosa, sobre una plancha metálica, compuesta generalmente de una aleación de aluminio.
La plancha toma la tinta en las zonas donde hay un compuesto hidrófobo (también conocido como oleófilo) y el resto de la plancha (zona hidrófila) se moja con agua para que repela la tinta; la imagen o el texto se trasfiere por presión a una mantilla de caucho, para pasarla, finalmente, al papel por presión.
La prensa se denomina offset (del inglés: indirecto) porque el diseño se transfiere de la plancha de impresión al rodillo de goma citado, antes de producir la impresión sobre el papel. Este término se generó por contraposición al sistema dominante anterior que fue la litografía, en el que la tinta pasaba directamente al papel.
Es precisamente esta característica la que confiere una calidad excepcional a este tipo de impresión, puesto que el recubrimiento de caucho del rodillo de impresión es capaz de impregnar, con la tinta que lleva adherida, superficies con rugosidades o texturas irregulares. Obviamente, esto es debido a las propiedades elásticas del caucho que no presentan los rodillos metálicos.
Hay 3 tipos de impresión off-set
Off-set plana La primera recibe el papel ya cortado y alcanza velocidades de 10.000-15.000 pliegos/hora
Off-set rotativa Se alimenta de bobinas de papel y puede sacar el trabajo plegado y cortado, la velocidad es muy superior, mas de 35.000 pliegos/hora.
Offset Digital Método de reproducción de documentos y/o imágenes sobre papel o materiales similares que parte desde el archivo con datos digitales. En este proceso no existen pasos intermedios de preimpresión (negativos, placas fotosensibles, CTP, etc.). Dado que es un proceso digital, cualquier imágen puede ser una imágen nueva, permitiendo la personalización.
El sistema de impresión digital no necesita a una persona que intervenga en la impresión, sólo que encienda la máquina y ésta imprime sola. Existen varios tipos de impresiones digitales pero las dos más importantes son:
Láser: La impresora utiliza carga electrostática con el toner o tinta en polvo para crear la imagen. Esta imagen entonces se transfiere a papel electrostáticamente mezclando polvo de tinta seca en un tambor de metal, con el uso de rayo láser. La velocidad de este tipo de aparatos es muy variable puede ir desde 4-20 que sería para impresiones caseras o de bajo tiraje hasta 4 000 por hora en adelante. Un punto importante de este tipo de impresoras es la resolución de la imagen. Las menos costosas pueden dar buena calidad con 300dpi pero se llega hasta 1 000 o más.
Inyección de tinta:
La información digitalizada en una computadora se usa para digerir la tinta a través de diminutos canales para formar patrones alfanuméricos o de puntos a la vez que rocían la imagen sobre el papel. En estos procesos no se necesitan ni cilindros ni presión. Algunas impresoras de inyección de tinta usan una sola boca o canal, guiada por la computadora para oscilar entre el papel y el depósito de tinta. La impresión por inyección de tinta se ha usado por lo general para imprimir envases y materiales de empaque. En la industria editora algunas revistas imprimen el nombre del suscriptor directamente en la portada/contraportada y lo hacen mediante este sistema, lo que elimina el uso de etiquetas o también para mandar cartas personalizadas dentro de las mismas publicaciones. De este modo se vinculan de un modo más personal los publicistas, los dueños de la revista y los lectores. Algunos ejemplos de revistas que así se manejan son: Times, Spot Illustrated, Money y People.