Archive for the ‘Destacado’ Category

Lo último en tecnología médica

Posted: January 4, 2011 in Destacado
Breve Historia de la Tecnología Moderna

(http://www.tudiscovery.com/guia_tecnologia/breve_resena/index.shtml)

1705 – Primera máquina de vapor efectiva (Thomas Newcomen)

1768 – Nicholas Joseph Cugnot construye un vagón a vapor autopropulsado

1769 – James Watt mejora significativamente la máquina a vapor de Newcomen

1774 – Primera calculadora fabricada en serie (Philipp Matthäus Hahn)

1775 – Primer submarino (David Bushnell)

1780 – Invención de la prensa de copia (James Watt)

1785 – Se inventa el telar mecánico (Edmund Cartwright)

1793 – Telégrafo (Claude Chappe)

1800 – Primera batería (Alessandro Volta)

1804 – Primera locomotora a vapor (Richard Trevithick)

1810 – Prensa de impresión (Frederick Koenig)

1821 – Motor eléctrico (Michael Faraday)

1825 – Primera línea pública de ferrocarril en Inglaterra

1827 – Primera turbina de agua, y patente del primer propulsor para barcos (Josef Ressel)

1854 – Invención de la bombilla incandescente (Heinrich Göbel)

1859 – Se desarrolla el motor a gas (Etienne Lenoir)

1861 – Primer teléfono funcionando (Johann Philipp Reis)

1875 – Invención del refrigerador (Carl von Linde)

1876 – Se patenta el uso del teléfono (Alexander Graham Bell)
– Motor de cuatro tiempos (Nicolaus August Otto)

1877 – Invención del fonógrafo (Thomas Alva Edison)

1879 – Primera locomotora eléctrica (Werner von Siemens)

1881 – Abastecimiento de energía con corriente alterna de alta frecuencia (George Westinghouse)

1883 – Desarrollo de la turbina a vapor (Carl de Laval)

1886 – Primer automóvil (Karl Benz)

1895 – Descubrimiento de los rayos X (Wilhelm Conrad Röntgen)
– Invención del cinematógrafo (Auguste y Louis Jean Lumière)

1896 – Descubrimiento de la radioactividad (Antoine Henri Becquerel)

1897 – Invención del tubo de rayos catódicos (Karl Ferdinand Braun)
– Diesel construye el motor diesel

1903 – Primer vuelo impulsado exitoso (Orville y Wilbur Wright)

1913 – Línea de ensamble para la producción automovilística (Henry Ford)

1930 – Primera turbina a gas para aeroplanos

1931 – Primer microscopio electrónico (Ernst Ruska)

1938 – Se divide el átomo del uranio (Otto Hahn y Fritz Straßmann)

1941 – “Z3”, la primera computadora funcionando (Konrad Zuse)

1948 – Transistor (William B. Shockley, John Bardeen y Walter Brattain)

1954 – Primera central nuclear en Obninsk, cercana a Moscú

1955 – Fibra óptica (Narinder Singh Kapany, London)

1957 – Se lanza el primer satélite terrestre “Sputnik 1” (URSS)

1961 – Primer humano en el espacio y primera orbitación terrestre (Yuri Gagarin, URSS)

1964 – Circuitos integrados (Jack Kilby para Texas Instruments)

1969 – Primer descenso del hombre en la luna (“Apollo 11”, USA)

1970 – Desarrollo del microprocesador (Intel)
– Primera calculadora de bolsillo

1977 – Apple II, la primera computadora compacta

1979 – Disco compacto (CD) para almacenamiento digital de audio (Sony y Philips)

1981 – Primera computadora personal de IBM

1992 – Primer libro en CD-ROM (la Biblia)

1993 – Advenimiento del “Ancho mundo de la Internet” (World Wide Web)

 

Hablando mas específicamente de Tecnología Médica:

La palabra láser está formada por las siglas de las palabras que especifican la tecnología que implica: Luz Amplificada por Simulación de Emisión de Radiación.

Para hacerlo sencillo, un láser – que genera haces de luz intensos y altamente concentrados – es un amplificador de luz. Su historia comenzó en Nueva York en 1960. El 7 de julio de ese año, Theodore H. Maiman presentó una lámpara que emitía una brillante línea de luz roja – un haz de luz concentrado.

Y así es como funcionaba el primer láser del mundo, que Maiman fabricó utilizando una piedra preciosa de rubí: un flash es disparado sobre el rubí, haciendo que algunas de sus moléculas oscilen. Las moléculas entran entonces en un estado de excitación de alta energía. Sin embargo, cada molécula intenta volver a su estado normal. Cuando lo hacen, emiten una partícula de luz, también conocida como fotón – un fenómeno sobre el que Albert Einstein ya había teorizado en 1917. La luz láser se forma cuando un número muy grande de moléculas de rubí son excitadas, ya que pueden estimularse las unas a las otras a volver a su estado original.

En 1960, los primeros lásers en estado sólido y gaseoso fueron inventados por Nikolai Gennadiyevich Basov y Alexander Mikhailovich Prokhorov en la Unión Soviética, y Maiman y All Javan en los Estados Unidos. El láser semiconductor los siguió en 1962 y poco después el láser de tinte.

Hoy en día, los lásers se han vuelto componentes vitales de muchas áreas de la tecnología. Ésto incluye el campo de la medicina, en el cual las aplicaciones del láser son utilizadas diariamente, asegurando precisión en técnicas quirúrgicas y tratamientos. La luz artificial concentrada también permite la mínima invasión, limita los efectos colaterales y es especialmente benévola para el paciente.

Los haces intensivos de láser pueden cortar y cauterizar tejidos humanos en fracciones de segundos, sin dañar los tejidos circundantes. Una enorme variedad de afecciones pueden ser tratadas segura y efectivamente, desde la vasodilatación hasta los carcinomas de hígado. Mientras tanto, más de tres millones de operaciones oftalmológicas que involucran terapia de láser, son realizadas cada año en todo el mundo.

 

LA APLICACIÓN DE LOS MICROPROCESADORES A LA MEDICINA

 

El microprocesador, o micro, es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles y aviones; y para  dispositivos médicos, etc. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados (chips) son circuitos electrónicos complejos integrados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material semiconductor.

 

Los siguientes son ejemplos de como éstos han sido aplicados en la medicina:

  • El “microprocesador de genes”: realiza pruebas para saber cómo reaccionan las personas a los fármacos. Incluye el perfil genético de una persona para determinar cómo reaccionará y si se beneficiará o no de un determinado tratamiento farmacológico. Un microprocesador de genes es una especie de placa de vidrio del tamaño de la uña del dedo pulgar que contiene secuencias de ADN que se pueden usar para revisar miles de fragmentos individuales de ADN de ciertos genes. El uso de los chips para la mejor aplicación de fármacos podría mejorar su valor terapéutico y reducir los costos de atención de la salud. Se calcula que 25 millones de personas en todo el mundo se beneficiarán de la prueba previa al tratamiento farmacológico, en un futuro cercano.
  • Un microprocesador implantado bajo la retina permite a los ciegos percibir de nuevo la luz y distinguir formas. El implante está constituido por un microprocesador del tamaño de la cabeza de una aguja que comprende 3.500 fotopilas que convierten la luz en señales eléctricas enviadas al cerebro por el nervio óptico. Sin embargo, la duración y fiabilidad a largo plazo del método llamado ‘Artificial Silicon Retina’ todavía se desconoce.

 

Según Papadopoulus, director del Sun (laboratorio de tecnología), la actual generación de procesadores será sustituida por computadoras basadas en un chip único; en vez de un microprocesador, un microsistema que contará con tres conexiones (para la memoria, para la red y para otros microsistemas). Con el paso del tiempo, cada chip no sólo podrá contener un sistema individual, sino varios sistemas que podrán funcionar de manera independiente, en una “microrred”.

 

OTRAS IMPLEMENTACIONES DE LA TECNOLOGÍA EN LA MEDICINA

Respirador Artificial

Defibrilador

Clonación genética

Avances medicina: Fabricación de órganos artificiales

Órganos creados a partir de cero

(http://avances-tecnologicos.euroresidentes.com/)

El desarrollo de tejido vivo y órganos en el laboratorio sería ideal para salvar vidas, Pero reproducir la complejidad de un órgano, desarrollando sus diferentes tipos de células con la colocación correcta –por ejemplo, los músculos están unidos entre sí por tejido conectivo y ensartados por vasos sanguíneos– es imposible en la actualidad. Los investigadores del MIT han dado un paso hacia esta meta desarrollando un modo de hacer “bloques de construcción”, que contienen diferentes tipos de tejido que se pueden combinar.
Las células madre embrionarias pueden transformarse en prácticamente cualquier tipo de célula en el cuerpo.

Pero controlar este proceso, conocido como diferenciación, es difícil. Si las células madre embrionarias se dejan crecer en una placa de cultivo de tejidos, se diferencian más o menos al azar, dando lugar a una mezcla de diferentes tipos de células.

El grupo del MIT, dirigido por Ali Khademhosseini, profesor ayudante de la división Harvard-MIT de Tecnología y Ciencias de la Salud y galardonado con un premio TR35 en el 2007, colocó células madre embrionarias en “bloques de construcción” que contenían un gel que inducía a las células a convertirse en ciertos tipos de célula. Estos bloques de construcción se pueden reunir posteriormente, utilizando técnicas desarrolladas anteriormente por Khademhosseini, para crear estructuras más complejas. El gel se degrada y desaparece a medida que el tejido crece. Finalmente, el grupo espera crear tejido cardíaco colocando los bloques que contienen las células que se han convertido en músculos cerca de los bloques que contienen los vasos sanguíneos, y así sucesivamente.

Cirugía a distancia

Un equipo de investigadores, dirigido por el conocido experto en robótica Shane Farritor, trabaja en un avance tecnológico dentro del campo de la medicina que podría lograr salvar la vida de víctimas de accidentes o soldados en el mismo lugar donde han sufrido sus heridas.

Este trabajo es fruto de una colaboración entre el Departamento de Ingeniería y la Facultad de Medicina de la Universidad de Nebraska. Los investigadores están desarrollando diminutos robots que se desplazan sobre ruedas, que podrían ser insertados en el abdomen del herido y luego controlado por cirujanos a cientos de kilómetros de distancia. En los experimentos científicos llevados a cabo con animales, los mini-robots llevaban cámaras con diodos que emitían luz para iluminar el abdomen de cerdos, y utilizaban transmisores de radio para emitir imágenes de vídeo.

En un caso de ser utilizados en la escena de un desastre natural o un campo de batalla, los robots llevarían diversas herramientas para que cirujanos a distancia pudiesen frenar hemorrágias internas (la mayor causa de la muerte traumática) utilizando diversos métodos. Los investigadores quieren perfeccionar una familia de pequeños robots que paramédicos podrían insertar en un paciente a través de una pequeña incisión.

Avances en la cirugía usando laser.

Según una noticia en EurekAlert, una nueva técnica quirúrgica podría mejorar los resultados actuales de la cirugía moderna, además de ahorrar millones de dólares cada año en costes médicos.

A través del uso de nuevas tecnologías se ha logrado realizar extirpaciones en la traquea de un paciente. La nueva técnica permite que el cirujano practique la cirugía en su propia consulta, estando el paciente despierto y, al finalizar la cirugía, el paciente puede ir a casa. Hasta ahora este tipo de cirugía requería aparatos ubicados en quirófanos además de la aplicación de una anestesia general al paciente y, muchas veces, la estancia de una noche en el hospital.

El nuevo método utiliza dos láser distintos. Un láser CO2, administrado por un nuevo tipo de fibra óptica hollow-core, y un láser de colorante pulsado, administrado por fibra óptica sólida. Cada láser está dirigido por un video-endoscopio de alta resolución, y todo el sistema se administra al paciente a través de un pequeño tubo colocado en la nariz. Representa la primera vez que se utiliza dos láser en una intervención realizada en una consulta médica.

Los dos láser se complementan. El láser CO2 elimina los crecimientos en el laringe y la traquea, y luego se aplica el láser de colorante pulsado para tratar la base de los crecimientos con el fin de prevenir su reaparición.

El equipo de especialistas de este centro logró eliminar los papilomas respiratorios a través de esta técnica. Según la portavoz del centro, el equipo eligió un caso de papilomas para probar la nueva técnica, al ser éstas uno de las extirpaciones más difíciles.

Con el tiempo se podrá utilizar esta nueva técnica para tratar cáncer de la laringe.

3.  Censor para obtener imágenes Diagnósticas.

Los científicos han desarrollado un nuevo producto diseñado para facilitar diagnósticas médicas. Se trata de un censor que mejora el rendimiento del conocido PillCam, un aparato que, al ser tragado por el paciente, pasa por el esófago y envía imágenes desde el interior.

El nuevo censor CMOS se introduce en el PillCam y permite tomar 14 imágenes por segundo a un receptor que lleva el paciente. Este avance permitirá que médicos puedan diagnosticar con mucho más precisión enfermedades de la garganta y trastornos y lesiones del esófago.

El nuevo aparato tiene un sensor en cada punta, y una velocidad de imágenes 7 veces mayor que la versión anterior. Los expertos lograron un aumento tan espectacular en la velocidad de imágenes al mantener la potencia baja y desarrollar un control automático de iluminación.

El primer PillCam fue presentado en 2001

4.  Diminutos sensores implantables que controlan el estado de salud.

Se trata de sensores multifunción del tamaño de una mota de polvo, que pueden detectar cualquier cosa, desde la presión sanguínea hasta compuestos tóxicos.

Según un artículo de Tecnology Review del 16 de junio de 2006, este dispositivo basado en la tecnología de memoria flash ( la que utilizan algunas cámaras digitales, dispositivos electrónicos portátiles y teléfonos móviles), se podría llegar a utilizar para una gran variedad de aplicaciones, entre las que se incluyen mejores pruebas de detección de drogas o dopaje, un seguimiento continuado del estado de salud de órganos y vasos sanguíneos e incluso la detección de sustancias químicas en el ambiente.

El desarrollo comercial de estos sensores inventados por Edwin Kan, profesor de ingeniería informática y eléctrica de la Universidad de Cornell, lo está llevando a cabo Transonic Systems, en Ithaca, Nueva York. Según Bruce McKee, ingeniero proyectista de Transonic, su primera aplicación podría estar disponible en 5 años y será probablemente el estudio y control de la temperatura, la presión y el flujo en pequeños vasos sanguíneos de animales de laboratorio, una parte importante en las pruebas de fármacos. Para ello, se implantarían los sensores en el torrente sanguíneo de los animales.
Kan ha construido unos sensores prototipo de 100 micrómetros, pero afirma que podrían ser incluso más pequeños. Actualmente, los sensores comunican la información detectada y reciben corriente por cables, pero según Kan se podría añadir una radio emisora y una fuente de energía, convirtiéndolo en inalámbrico, y el tamaño total del dispositivo apenas aumentaría un par de milímetros cuadrados Según McKee, el diminuto tamaño de los sensores y su escaso consumo es lo que hace sea posible implantarlos de forma permanente en el cuerpo humano, una vez transformados en inalámbricos.

Nuevas soluciones para la miopía.

En San Diego desarrolla actualmente un sistema que se podría comercializar dentro de unos meses y que lograría hacer lentes realmente hechos a la medida de las necesidades del paciente. El proceso en vías de desarrollo empieza con un aparato que mide todos los defectos únicos del ojo, incluyendo irregularidades en la forma o la densidad del mismo.

Este avance tecnológico hace que una luz entre en el ojo y mide los cambios en las propiedades de onda de la luz reflejados en la retina. Partiendo de estos cambios, el aparato es capaz de calcular la medida de irregularidades puntuales y crear una receta digital que remite a Ophtonix. Dicha receta dirige un láser que examina un material convencional y fusionado con una capa de un material nuevo desarrollado por Ophtonix. La luz del láser transforma la estructura molecular del material de Ophtonix, alterando sus propiedades refractivas de un punto a otro, permitiendo la fabricación de lentes totalmente hechos a la medida del paciente en cuestión.

Avances en neurología: cultivación de células cerebrales.

Según un artículo en The Guardian Science, dentro de poco será posible cultivar células del cerebro humano en platos Petri. La nueva técnica promete nuevos tratamientos contra enfermedades como Parkinson y epilepsia, porque podría crear suministros sin límite de células humanas.

Según declaraciones recogidas en el artículo del director de la investigación, Prof. Scheffler, un neurocientífico de la Universidad de Florida, “es como una línea de producción de una fábrica. Podemos sacar estas células y luego congelarlas hasta que las necesitemos. Luego las descongelamos y fabricamos una tonelada de neurones nuevos.”

Scheffler recogió células precursoras de ratones y les aplicó productos químicos para lograr la diferenciación de las mismas. Durante todo el proceso, su equipo tomó imágenes de las células cada pocos minutos.

Los científicos confirmaron que el desarrollo de las células precursoras del cerebro es parecido a la forma en la que las células sanguíneas se crean a partir de los células precursoras de la médula ósea, lo que en su día llevó a avances en el proceso de implantes de médula ósea.

Según el artículo en The Guardian, este nuevo estudio podría proporcionar una nueva herramienta para la investigación en neurociencias que, a su vez, podría ser el primer paso hacia la creación de nuevos tratamientos contra enfermedades de tipo neurológico.

Por último y según

http://www.ojocientifico.com/2010/12/19/ultimos-avances-en-medicina/

Nanotecnología:

La nanotecnología es otra de las últimas tecnologías que aplicada a la han causado un gran avance. Hoy día, se utilizan nanosensores para monitorear distintas variables dentro del cuerpo humano, y se usan nanotubos para complejas intervenciones médicas y distintas técnicas de medicina

Desarrollo del ojo biónico:

La ciencia médica está muy cerca de lograr devolverles la visión a personas ciegas, en la práctica ya se ha logrado con éxito mediante la implantación de microchips dentro de la retina del ojo. Pero todavía  no es posible que todo el mundo pueda acceder a esta tecnología.

Sangre artificial:

Usualmente, cuando un paciente necesita una transfusión de sangre se piden donantes. Esto está por quedar en la historia ya que la sangre artificial ya ha sido desarrollada a partir de sustancias que se encuentran en la naturaleza. Como en el caso anterior, es necesaria una planificación a largo plazo para que esta sangre artificial este disponible para su uso médico.

Advertisements

CRITICAS

Posted: January 3, 2011 in Destacado

En este post paso a exponer las críticas y artículos sobre los temas tratados en el resto de los post. En general podemos decir que la mayor preocupación es del uso de las tecnologías por los menores, su mal uso puede acarrear problemas sociales, físicos y psíquicos. También encontramos otros aspectos sociales y en materia de educación que expongo en los siguientes artículos y enlaces

TECNOLOGÍA Y NUEVAS TECNOLOGÍAS DE COMUNICACIÓN (PINCHA):

Reflexiones desde una perspectiva histórica. Resaltamos que el concepto de interacción supuso históricamente le presencia del otro o de los otros pero actualmente, con las nuevas tecnologías de la comunicación, la interacción está dada sobre otras bases :
1- Ausencia, es decir, que la presencia de “otro” en el mismo espacio y tiempo no es limitante, ni gravita en función de la interacción y la comunicación;
2- Carencia de información de un contexto social común a los sujetos involucrados en la interacción
3- Imposibilidad de transmitir o evidenciar pautas no-verbales involucradas en la comunicación.
Estas consideraciones que hemos enumerado, que por cierto no son las únicas, nos llevan a plantearnos, si las características, que históricamente fueron dadas como condiciones necesarias para que exista interacción y por tanto que los hombres pudieran formar sociedades, compartir valores y constituirse plenamente en hombres sociales, son o
no condiciones absolutamente necesarias. De hecho la gran difusión del chat, como medio socializador de las personas, nos marca que evidentemente nos encontramos frente a una reestructuración social y conceptual de los procesos de socialización del hombre, sobre la cual no podemos realizar predicciones, ya que con las nuevas tecnologías de la comunicación han cambiado las características de interacción y sin embargo, de hecho, las
personas interactúan. Entonces, será tarea de la Epistemología y de la Sociología redefinir el paradigma desde dónde se produce el nuevo proceso de socialización humana.

Investigación y nuevas tecnologías. Destacando el párrafo:

-Hay que resaltar que aunque hoy nos parezca casi natural la utilización de sensores inteligentes, nanotecnologías, tecnologías microelectrónicas y optoelectrónicas (y aquí la lista podría ser bastante extensa) no se trata sino de la respuesta que los científicos de la conservación han dado, y continuan dando, a la exigencia de obtener la mayor cantidad de información significativa sin alterar, modificar o interferir en la integridad de las obras de arte.
Es necesario destacar que, si bien se ha tratado de un recorrido gradual y sin interrupciones, ha sido un proceso bastante lento. Uno de los problemas principales ha sido el hecho de que las técnicas disponibles, no habiéndo sido creadas para ser aplicadas en el sector de los bienes culturales, hayan debido someterse necesariamente a nuevos estudios, controles experimentales y pertinentes adaptaciones.-

Nicolás Venegas S resalta el libro de Ramón Ignacio Correa García.

La estrategia estaría sentada en converger todos los criterios expuestos en las múltiples formas de apropiación del proceso educacional, a  partir de un enfoque integral, que aúne la capacidad reflexiva de interpretación crítica del mundo medial pero desde un uso creativo y expresivo de los distintos elementos que componen este escenario hostil y regido por el pensamiento único economicista en el que se enmarca la industria cultural.

La conocida Brecha Digital:

hace referencia a la diferencia socioeconómica entre aquellas comunidades que tienen accesibilidad a Internet y aquellas que no, aunque tales desigualdades también se pueden referir a todas las nuevas tecnologías de la información (TIC), como el computador personal, la telefonía móvil, la banda ancha y otros dispositivos. Como tal, la brecha digital se basa en diferencias previas al acceso a las tecnologías. Este término también hace referencia a las diferencias que hay entre grupos según su capacidad para utilizar las TIC de forma eficaz, debido a los distintos niveles de alfabetización y capacidad tecnológica. También se utiliza en ocasiones para señalar las diferencias entre aquellos grupos que tienen acceso a contenidos digitales de calidad y aquellos que no. El término opuesto que se emplea con más frecuencia es el de inclusión digital y el de inclusión digital genuina.

Según Internet World Stats , en el 2010, de los 1966 millones de internautas conectados, casi el 63% vive en los países industrializados, donde reside el 15% de la población mundial. Mientras que Europa y Estados Unidos suman 501 millones de usuarios, en todo el continente africano la cifra desciende a 110 millones, y estas diferencias se manifiestan asimismo entre hombres y mujeres, ciudad o campo, edades, estatus sociales, paralelamente a las “brechas” de siempre: el acceso a la sanidad, a la educación, la mortalidad infantil, el hambre, la pobreza.

Datos de 2006 de la Unión Internacional de Telecomunicaciones muestran que mientras el 58.6% de los habitantes de los países desarrollados tienen acceso a Internet, en los países en vías de desarrollo apenas el 10.2% de los habitantes tiene acceso a esta tecnología.

CRÍTICAS A LA WEB 2.0

(http://www.readwriteweb.es/analisis/web-2-0-jaron-lanier/)

Jaron Lanier fue un pionero de la “realidad virtual” a comienzos de los 80, y en su libro You Are Not a Gadget: A Manifesto, aboga por un uso más humanista de la tecnología de Internet. Lanier critica la Web 2.0, a la que denomina al comienzo del libro “un torrente de diseños insignificantes”, y “libertad […] más para las máquinas que para las personas”.

El principal problema de Lanier con la Web 2.0 es que, en su opinión, promueve la “mentalidad de colmena” por encima de la expresión individual. Escribe que la Web 2.0 presenta a la generación de jóvenes actual una “expectativa reducida de lo que puede ser una persona”.

Muchos de los nuevos propietarios de iPads podrían oponerse a la idea de que son una persona reducida a causa de su nuevo artilugio. Sin embargo, Lanier ofrece un contrapunto interesante a las filosofías de la Web 2.0, por lo que vale la pena explorar esta perspectiva.

Por supuesto, no es más que el último de una larga hilera de cínicos de la Web 2.0. Éstos varían en calidad de las agudas críticas de Nicholas Carr a las diatribas sensacionalistas de Andrew Keen. Afortunadamente, Lanier es más afín a Carr en el sentido de que invita a la reflexión y aporta algo nuevo al debate.

Fotografia - Jaron Lanier - ReadWriteWeb en espanolLas teorías de Lanier son interesantes, y en algunos casos muy atractivas. Sin embargo, en último término, su “manifiesto” me ha parecido fragmentado y sin una conclusión definitiva. Al llegar al final del libro no estaba convencido del todo, lo que es un problema, porque en teoría un manifiesto debería incitar a sus lectores a adoptar más acciones.

Original: Richard MacManus

Jakob Nielsen critica que con la Web 2.0 se ha dejado de lado al diseño

Jakob Nielsen. (Foto: Useit.com)Jakob Nielsen. (Foto: Useit.com)

O’Reilly critica la web 2.0

SOBRE EL MUNDO VIRTUAL

Ventajas y desventajas de los juegos de PC

 

Aclararemos lo que es una plataforma:

Es un sistema que sirve como base para hacer funcionar determinados módulos de hardware o de software con los que es compatible. Dicho sistema está definido por un estándar alrededor del cual se determina una arquitectura de hardware y una plataforma de software (incluyendo entornos de aplicaciones). Al definir plataformas se establecen los tipos de arquitectura, sistema operativo, lenguaje de programación o interfaz de usuario compatibles.

Por videojuego entendemos:

es un software creado para el entretenimiento en general y basado en la interacción entre una o varias personas y un aparato electrónico que ejecuta dicho videojuego;este dispositivo electrónico puede ser una computadora, un sistema arcade, una videoconsola, un dispositivo handheld o un teléfono movil, los cuales son conocidos como “plataformas”. Aunque, usualmente el término “video” en la palabra “videojuego” se refiere en sí a un visualizador de gráficos, hoy en día se utiliza para hacer uso de cualquier tipo de visualizador. Entendemos por videojuegos todo tipo de juego digital interactivo, con independencia de su soporte.

Un juego virtual es una actividad lúdica que introduce los aspectos virtuales de sensación, tratamiento y ejecución en entornos no comunes de aprendizaje (Mengual 2006).

Cronología:

En los años 40 los técnicos americanos desarrollan el primer simulador de vuelo para entrenamiento. Es un sistema que intenta replicar, o simular, la experiencia de volar una aeronave de la forma más precisa y realista posible. Los diferentes tipos de simuladores de vuelo van desde videojuegos hasta réplicas de cabinas en tamaño real montadas en accionadores hidraulicos (o electromecánicos), controlados por sistemas modernos  computerizados.

En 1962 se desarrolla la tercera generacion de ordenadores con las características siguientes:

  • Menor consumo de energía
  • Apreciable reducción del espacio
  • Aumento de fiabilidad
  • Teleproceso
  • Multiprogramación
  • Renovación de periféricos
  • Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11

En 1969 nace el primer microprocesador, corazón de lasvideoconsolas actuales. El 4004 fue el primer microprocesador de Intel. Este desarrollo impulsó la calculadora de Busicom y dio camino a la manera para dotar de “inteligencia” a objetos inanimados, así como la computadora personal.

En 1972 surge el primer juego llamado PONG creado por Nolan Bushnell y lanzado el 29 de noviembre de 1972. El Pong está basado en el deporte de tenis de mesa (o ping pong). La palabra Pong es marca registrada por Atari Interactive, mientras que la palabra genérica “pong” es usada para describir el género de videojuegos “bate y bola”.

En 1977 ATARI fue el primer sistema de videojuegos y las primeras preocupaciones sobre el efecto de los videojuegos en los niños. En 1986 Nintendo lanza la primera consola calidad color

Despues de estos momentos llega la década de los 8 bits (megadrive, mastersystem, gameboy, NES, Super Nintendo) y en 1990- 1999 la revolución de las 3D.

Un artículo interesante sobre las Plataformas Virtuales en el deporte (Pincha aqui).

Nosotros vamos a destacar los objetivos que se buscan con el uso de estas tecnologías en el deporte:

Generalmente un videojuego busca entretenimento pero también Interacción, evocación de la realidad, jugabilidad, competición y reto.

Clasificación de los videojuegos

  • Arcade: es el término genérico de las máquinas recreativas de videojuegos o también llamadas “maquinitas” disponibles en lugares públicos de diversión, centros comerciales, restaurantes, bares, o salones recreativos especializados. Son similares a los pinballs y a las tragamonedas o máquinas tragaperras de los casinos, pero debido a que no son juegos de azar ni de apuestas –ya que se basan en la destreza del jugador– por lo general no tienen las limitaciones legales de éstas. Ejemplos: PacMan, Mario, Sonic, Street Fighter, etc.

 

  • Deportes:

Es un videojuego de consola o de computadora que simula el campo de deportes tradicional. Estos videojuegos son sumamente populares, el género incluye algunos de los videojuegos con más éxito de venta. Casi todos los deportes conocidos han sido recreados con un videojuego, incluyendo béisbol, fútbol, fútbol americano, boxeo, lucha libre, críquet, golf, basquetball, hockey sobre hielo, bolos, rugby, caza, pesca, etc.

Algunos videojuegos resaltan en realidad el campo de juego (tal como el Madden NFL), mientras otros destacan la estrategia detrás del deporte (tal como el Championship Manager). Otros satirizan el deporte con efectos cómicos (tal como Arch Rivals). Este género ha sido popular en toda la historia de los videojuegos y es sumamente competitivo, justo como los verdaderos deportes mundiales.

Varias series de videojuegos destacan los nombres y características de equipos verdaderos y jugadores, y son puestos al día cada año para reflejar cambios verdaderos mundiales. El género no debe ser confundido con el término deportes electrónicos, que es usado para describir los videojuegos que son jugados como deportes competitivos. Por ejemplo: FIFA, NBA, PC futbol, Need for speed.

  • Juegos de aventura y Rol:

Un juego de rol (traducción usual en castellano del inglés role-playing game, literalmente ‘juego de interpretación de papeles’) es un juego en el que, tal como indica su nombre, uno o más jugadores desempeñan un determinado rol, papel o personalidad. Cuando una persona hace el papel de X significa que está interpretando un papel que normalmente no hace.

Los videojuegos de aventura son un género de videojuegos, caracterizados por la investigación, exploración, la solución de rompecabezas, la interacción con personajes del videojuego, y un enfoque en el relato en vez de desafíos basados en reflejos. Es importante observar que este término no tiene relación con las películas y novelas de aventura y no es indicativo del tema o del sujeto que trata. La vasta mayoría de videojuegos de aventura son computadora, aunque los videojuegos de aventura de videoconsola no son desconocidos.

  • Simuladores y constructores:

Un simulador pretende reproducir tanto las sensaciones físicas (velocidad, aceleración, percepción del entorno) como el comportamiento de los equipos de la máquina que se pretende simular.

  • Juegos de estrategia:

Aquellos juegos o entretenimientos en los que, el factor de la inteligencia, habilidades técnicas y planificación y despliegue, pueden hacer predominar o impulsar al jugador hacia la victoria del juego.

Los jugadores pueden representar el papel de un empresario, un jefe de estado, un general, o cualquier otro personaje, en los que tendrán que desarrollar una serie de estrategias, gestionando los recursos de los que se dispone, para ganar una batalla, conseguir dinero o puntos, determinada posición, etc., y así conseguir el objetivo final.

  • Puzzles y juegos de lógica:

Los videojuegos de lógica, también conocidos como videjuegos de inteligencia o videojuegos de puzzle, son un género de videojuegos que se caracterizan por exigir agilidad mental al jugador. Pueden involucrar problemas de lógica, estrategia, reconocimiento de patrones, completar palabras o hasta simple azar. El género puede ser difícil de describir, cada uno tiene su estilo único.

Algunos videojuegos de lógica más comunes, como lo es Tetris, tienen como objetivo acomodar piezas que caen para organizarlas de la manera correcta. Otros pueden ser organizar objetos en un escenario establecido, como en Sokoban. También pueden ser alcanzar una meta eliminando enemigos o activando botones, como en Bomberman.

  • Juegos de preguntas: Como el Trivial

Web 3.0

Posted: January 1, 2011 in Destacado

Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cuál sea la definición más adecuada.

Las tecnologías de la Web 3.0, como programas inteligentes, que utilizan datos semánticos, se han implementado y usado a pequeña escala en compañías para conseguir una manipulación de datos más eficiente. En los últimos años, sin embargo, ha habido un mayor enfoque dirigido a trasladar estas tecnologías de inteligencia semántica al público general.

Veamos algunos componentes de la web 3.0:

Bases de datos

El primer paso hacia la “Web 3.0” es el nacimiento de la “Data Web”, ya que los formatos en que se publica la información en Internet son dispares, como XML, RDF y microformatos; el reciente crecimiento de la tecnología SPAROL, permite un lenguaje estandarizado y API para la búsqueda a través de bases de datos en la red. La “Data Web” permite un nuevo nivel de integración de datos y aplicación inter-operable, haciendo los datos tan accesibles y enlazables como las páginas web. La “Data Web” es el primer paso hacia la completa “Web Semántica”. En la fase “Data Web”, el objetivo es principalmente hacer que los datos estructurados sean accesibles utilizando RDF. El escenario de la “Web Semántica” ampliará su alcance en tanto que los datos estructurados e incluso, lo que tradicionalmente se ha denominado contenido semi-estructurado (como páginas web, documentos, etc.), esté disponible en los formatos semánticos de RDF y OWL.

Inteligencia artificial

Web 3.0 también ha sido utilizada para describir el camino evolutivo de la red que conduce a la inteligencia artificial. Algunos escépticos lo ven como una visión inalcanzable. Sin embargo, compañías como IBM y Google están implementando nuevas tecnologías que cosechan información sorprendente, como el hecho de hacer predicciones de canciones que serán un éxito, tomando como base información de las webs de música de la Universidad. Existe también un debate sobre si la fuerza conductora tras Web 3.0 serán los sistemas inteligentes, o si la inteligencia vendrá de una forma más orgánica, es decir, de sistemas de inteligencia humana, a través de servicios colaborativos como del.icio.us, Flickr y Digg, que extraen el sentido y el orden de la red existente y cómo la gente interactúa con ella.

Web semántica y SOA

En relación con la dirección de la inteligencia artificial, la Web 3.0 podría ser la realización y extensión del concepto de la “Web semántica”. Las investigaciones académicas están dirigidas a desarrollar programas que puedan razonar, basados en descripciones lógicas y agentes inteligentes. Dichas aplicaciones, pueden llevar a cabo razonamientos lógicos utilizando reglas que expresan relaciones lógicas entre conceptos y datos en la red. Sramana Mitra difiere con la idea de que la “Web Semántica” será la esencia de la nueva generación de Internet y propone una fórmula para encapsular Web 3.

Este tipo de evoluciones se apoyan en tecnologías de llamadas asíncronas para recibir e incluir los datos dentro del visor de forma independiente. También permiten la utilización en dispositivos móviles, o diferentes dispositivos accesibles para personas con discapacidades, o con diferentes idiomas sin transformar los datos.

  • Para los visores: en la web, xHTML, Javascript, Comet, Ajax, etc.
  • Para los datos: Lenguajes de programación interpretados, Base de datos relacional y protocolos para solicitar los datos.

Evolución al 3D

Se llama así, a lo que muchos ven como una extensión de los mundos virtuales, similar a la famosa Second Life o There.com se cree que en el futuro la web será una gran alternativa al mundo real, donde se podrá recorrer el planeta a través de ella, sin abandonar el escritorio.

La experiencia sería semejante al actual Google Earth. Compañías como Google y Microsoft trabajan en este tipo de proyectos.

La Web centrada en multimedia

Se refiere a una web que ofrezca, no solamente búsquedas basadas en metadatos, sino por similitudes en la multimedia.

La web “mediocéntrica” es una web enfocada en los multimedios, donde se podrán hacer búsquedas por similitud, de imágenes, música y videos, con sólo mostrar al buscador el medio de referencia. Entre las Compañías que están trabajando en estos proyectos se encuentran Ojos y Polar Rose.

¿Qué es la Web permanente?

También llamada Web omnipresente o pervasive web es una web que está en todas partes, no sólo en el PC o celular sino en la ropa, joyas, automóviles, etc.

Es un concepto, que se ha extendido a partir del pasaje de los PC a los teléfonos celulares y PDA. Según un artículo publicado en el wiki Wadooa, el laboratorio de multimedios del MIT , ya está trabajando en estas ideas a partir de la creación de espejos de baños y ventanas de casas conectados a internet.

Las resistencias y cuestionamientos a esta evolución de la Web

Según Pérez Crespo, los pesimistas aducen que el grado de complejidad que esta exige no será alcanzado, porque existirá una fuerte reacción de quienes ahora disponen de la información, que no querrán compartirla o porque fenómenos como el “spam semántico” la harán poco utilizable.

Por su parte, Ricardo Baeza-Yates, director de Yahoo Research Barcelona, en el artículo sobre Web 3.0: la inteligencia hecha web, cree que la Web Semántica puede no existir nunca, ya que sólo podría ocurrir cuando las personas e instituciones usen los mismos estándares semánticos y sean confiables. Algo que considera prácticamente imposible.

Sin duda, existirá fuerte oposición entre los defensores de la privacidad y puede que ésta en determinado momento sea más vulnerable, sin embargo, cabe suponer que, paralelamente, se desarrollaran los mecanismos necesarios para protegerla.

Proyectos en curso que anticipan el modelo de la Web 3.0

Dentro de la corriente oficial, centrada en la creación de estándares y reformateo de páginas, algunas Compañías como HP y Yahoo ya vienen implementando los nuevos lenguajes.

Los ejemplos más citados son el de la empresa RadarNetworks , que busca explotar el contenido suministrado por los usuarios en las redes sociales y el proyecto KnowItAll, desarrollado en la Universidad de Washington y financiado por Google, que busca obtener y agregar información de usuarios de productos.

Se pueden encontrar estructuras web semánticas en la herramienta espacial de la base de datos Oracle. Empresas como Powerset y TextDigger han trabajado en buscadores web semánticos basados en el proyecto académico open source WordNet.

Por otra parte, dentro de la corriente alternativa, ocupada en la construcción de agentes más inteligentes, el proyecto más temprano ha sido el de Blue Organizer de Adaptative Blue.

Actualmente en desarrollo, Parakey es un proyecto de código abierto, comandado por Blake Ross, uno de los desarrolladores de Firefox. La idea es unificar el escritorio y la web, a partir de la creación de una especie de sistema operativo web.

¿Cómo se caracteriza y diferencia la Web 3.0 de la Web 1.0 y de la Web 2.0?

El desarrollador uruguayo, Andres Richera, presenta el siguiente esquema:

  • Web 1.0 – Personas conectándose a la Web
  • Web 2.0 – Personas conectándose a personas – redes sociales, wikis, colaboración, posibilidad de compartir.
  • Web 3.0 – Aplicaciones web conectándose a aplicaciones web, a fin de enriquecer la experiencia de las personas, a esto agrega: estado de conciencia del contexto en la Web Geoespacial, autonomía respecto del navegador y construcción de la Web Semántica.

Sobre este último punto, cabe acotar que si bien diferentes factores se conjugan en la Web 3.0 a favor de la semantización de la web, en tanto esto es un proceso, no es privativo de ella. Por tal motivo, quizás sea más apropiado concebir la construcción de la Web Semántica, por fuera y por encima de estos estadíos o instancias.

TODAS ESTAS CUESTIONES SE TRATARÁN DE MANERA MAS ESPECÍFICA Y APLICADA EN CADA PÁGINA Y CATEGORÍA.

La web 2.0

Posted: January 1, 2011 in Destacado

La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.

La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio.

cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.

Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de 0’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.

Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.

En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:

  • La web es la plataforma
  • La información es lo que mueve al Internet
  • Efectos de la red movidos por una arquitectura de participación.
  • La innovación surge de características distribuidas por desarrolladores independientes.
  • El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo

Otras características de la Web 2.0.

  • Simplifica la usabilidad del sitio web
  • Ahorra tiempo al usuario
  • Estandariza los lenguajes para una mejor utilización de la re-utilización del código.
  • Permite una mejor interoperabilidad entre aplicaciones y entre las aplicaciones y las máquinas (software-hardware).
  • Facilita las interacciones
  • Facilita el reconocimiento o detección de carencias o nuevas formas de utilización de aplicaciones.
  • Facilita la convergencia entre los medios de comunicación y los contenidos.
  • Facilita la publicación, la investigación y la consulta de contenidos web.
  • Y sobre todo  estimula y aprovecha la inteligencia colectiva en beneficio de internet.

    Para que seamos mas conscientes de la gran evolucion y las ventajas de la web 2.0, exponemos las características de la web 1.0 de la que nació:

    La Web 1.0 empezó en los años 60’s, De la forma más básica que existe, con navegadores de solo texto, como ELISA, bastante rápidos, después surgió el HTML (Hyper Text Markup Language) que hizo las páginas web más agradables a la vista y los primeros navegadores visuales como IE, Netscape, etc.

    La Web 1.0 es de solo lectura, el usuario no puede interactuar con el contenido de la página,(nada de comentarios, respuestas, citas, etc). Estando totalmente limitado a lo que el Webmaster sube a la página web.

    Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:

    • Páginas estáticas en vez de dinámicas por el usuario que la visita
    • El uso de framesets o Marcos.
    • Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
    • Libros de visitas online o guestbooks
    • botonesGIF, casi siempre a una resolución típica de 88×31 pixels en tamaño promocionando navegadores web u otros productos.
    • formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el codigo se podía observar los detalles del envío del correo electrónico.

    La Web 2.0 con ejemplos

    Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:

     

    Nuevas Tendencias

    Posted: December 31, 2010 in Destacado

    Como en muchos aspectos ocurre no en todos los países se tiene el mismo nivel de avance tecnológico, algunos de ellos se convierten en pioneros de ciertos sistemas que luego llegan al resto del mundo, lo que si sabemos gracias a la instantaneidad que nos proporcionan las tecnologías de la información con las que ya contamos, es las nuevas tendencias que en este campo que tratamos, las nuevas tecnologías.

    Destacamos que los móviles cada vez son más pequeños, mas económicos, más potentes y se han creado algunos que tienen mas funciones que llamar y recibir llamadas, estos y otras novedades q destacamos son:
    los Netbooks (es un subportátil, es decir, una categoría de ordenador portátil de bajo coste y generalmente reducidas dimensiones, lo cual aporta una mayor movilidad y autonomía. Son utilizados principalmente para navegar por Internet y realizar funciones básicas como procesador de texto y de hojas de cálculo.)

    Tablet PC (Es una computadora portatil con la que se puede interactuar a través de una pantalla táctil o multitáctil, el usuario, puede utilizar una pluma stylus para trabajar con el ordenador sin necesidad de teclado físico, o mouse.)

    Smartphone (En su traducción “el teléfono inteligente” es un término comercial para denominar a un teléfono móvil que ofrece más funciones que un telefono celular común. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término “Inteligente” hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil, o simplemente el sistema operativo movil que posee, diferenciando su uso mediante una exclusiva disposición de los menúes, teclas, atajos, etc).

    Por otro lado tenemos sistemas operativos embebidos y multifuncionales:

    Android es un sistema operativo inicialmente desarrollado por Android Inc., una firma comprada por Google en 2005.  Android está basado en una versión modificada del núcleo Linux. Es partícipe de la Open Handset Alliance.

    Las unidades vendidas de teléfonos inteligentes con Android se ubican en el primer puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010, con una cuota de mercado de 43,6% en el tercer trimestre. Android tiene una gran comunidad de desarrolladores escribiendo aplicaciones para extender la funcionalidad de los dispositivos. A la fecha, existen cerca de 100.000 aplicaciones disponibles para Android. Android Market es la tienda de aplicaciones en línea administrada por Google, aunque existe la posibilidad de obtener software externamente. Los programas están escritos en el lenguaje de programación Java. IOS 4X: El historial de versiones de IOS (antes el iPhone OS) comenzó con el lanzamiento del iPhone el 29 de junio de 2007. IOS es el sistema operativo que se ejecuta en Apple Inc. ‘s los dispositivos móviles como el iPhone, iPod Touch, y IPAD. Este sistema operativo también se ejecuta en el Apple TV, pero la interfaz de usuario es diferente.

    Apple ofrece actualizaciones para el sistema operativo para el iPhone, IPAD y el sistema de iPod Touch a través de iTunes, de forma similar a otros que los iPods se actualizan, y pregona esto como una ventaja en comparación con otros teléfonos y dispositivos móviles.  Los parches de seguridad, como así como características nuevas y mejoradas, son liberados de esta manera.

    WebOs:

    Web operating system o WebOS es un proyecto de investigación de computación que empezó en la Universidad de California, (Berkeley) para desarrollar un programa para aplicaciones abstractas usadas en Internet. Las abstracciones que provee incluyen:

    • Un sistema de archivos que identifica la información mediante localizadores uniformes de recursos (URL).
    • Un sistema de nombramiento de recursos independiente de la localización.
    • Ejecución remota segura.
    • Acceso seguro a la información.
    • Transacciones libres de error.

    La Universidad de Duke, la Universidad de Texas (Austin) y la Universidad de Washigton han continuado esta línea de investigación.

    Generalmente, el término WebOS ha sido empleado para referirse a una plataforma que interactúa con el usuario a través del navegador web y no depende del sistema operativo. Tales predicciones datan desde mediados de los 90, cuando Marc Andreessen predijo que Microsoft Windows estaba destinado a ser un “pobre conjunto de drivers ejecutándose en Netscape Navigator. Recientemente, esta tecnología ha suscitado un importante interés gracias a los rumores de que Google podría producir una nueva plataforma.

    Otras tendencias que según hemos investigado están ocurriendo en USA son:

    En alza los siguientes

    Community manager .El community manager o responsable de comunidad es la persona encargada de crear, gestionar y dinamizar una comunidad de usuarios en Internet con independencia de la plataforma que empleen. La figura se remonta al origen de las comunidades virtuales como “The well” y luego siguió teniendo relevancia en el ámbito de las listas de distribución, los grupos de noticias y los foros web.El Community Manager debe perfilarse como un estratega especializado en comunicación online, con conocimientos en marketing, publicidad y relaciones públicas, un early adopter en esencia y con experiencia para establecer relaciones de confianza con las audiencias. Debe poseer un profundo conocimiento de la empresa y la industria, sentido común, empatía, inteligencia contextual, emocional y ser capaz de evaluar e interpretar tendencias. Tener habilidad para inducir y evangelizar a las distintas áreas de la empresa para que comprendan la necesidad estratégica de formar parte de la conversación en los medios sociales. Monitorear la marca e interpretar datos, prever escenarios de crisis o de oportunidad, establecer vínculos estratégicos (comunidades), identificar y “reclutar” líderes de opinión y recopilar feedback para utilizarlos como propuestas de mejoras internas. Para asegurar sus competencias, la selección del profesional debe responder a un proceso minucioso y exhaustivo que involucre a todas las áreas de la organización, transversalmente.

    El iPhone es un teléfono inteligente multimedia con conexión a Internet, pantalla táctil capacitiva (con soporte multitáctil) y una interfaz de hardware minimalista de la compañía Apple Inc.

    Ya que carece de un teclado físico, contiene uno virtual en la pantalla táctil en orientación tanto vertical como apaisado. El iPhone 3GS dispone de una cámara de fotos de 3 megapixeles y un reproductor de música (equivalente al del iPod) además de software para enviar y recibir mensajes de texto y mensajes de voz. También ofrece servicios de Internet como leer correo electrónico, cargar páginas web y conectividad por Wi-Fi. La primera generación de teléfonos eran GSM cuatribanda con la tecnología EDGE; la segunda generación ya incluía umts con HSDPA.

    iPad:

    es un dispositivo electrónico tipo tablet desarrollado por Apple Inc. Anunciado el 27 de enero de 2010, se sitúa en una categoría entre un “teléfono inteligente” (smartphone) y un portatil, enfocado más al acceso que a la creación de contenido.Las funciones son similares al resto de dispositivos portátiles de Apple, como es el caso del iPhone o iPod, aunque la pantalla es más grande y su hardware más potente. Funciona a través de una NUI (Interfaz natural de usuario) sobre una versión adaptada del sistema operativo iOS. Esta interfaz de usuario esta rediseñada para aprovechar el mayor tamaño del dispositivo y la capacidad de utilizar software para lectura de libros electrónicos y periódicos, navegación web y correo electrónico, además de permitir el acceso al usuario a otras actividades de entretenimiento como películas, música y videojuegos. Posee una pantalla con retroiluminación LED y capacidades multitáctiles de 9,7 pulgadas (24,638 cm), de 16 a 64 gigabytes (GB) de espacio en memoria flash, Bluetooth, y un conector dock de 30 pines que permite la sincronización con el software iTunes además de proporcionar conexión para diversos accesorios. Existen dos modelos: uno con conectividad a redes inalámbricas Wi-Fi 802.11n y otro con capacidades adicionales de GPS y soporte a redes 3G (puede conectarse a redes de telefonía celular HSDPA). Ambos modelos pueden ser adquiridos en tres capacidades de almacenamiento distintas.

    Social Media: Social Media SL fundada por el antiguo equipo comercial de Weblogs SL, tiene el objetivo de consolidar su posición como el referente de publicidad 2.0 en España.

    La compañía cuenta con una larga y extensa experiencia en la comercialización de espacios publicitarios en nuevas e innovadoras plataformas de Internet, ya que ha gestionado la publicidad en medios como Genbeta, Xataka, Error500 y El Blog de Enrique Dans entre otros.

    Crowdsourcing , del inglés “crowd” (masa) y “sourcing” (externalización), también conocido como “tercerización masiva” o “subcontratación voluntaria”, consiste en externalizar tareas que, tradicionalmente, realizaba un empleado o contratista, a un grupo numeroso de personas o una comunidad (masa), a través de una convocatoria abierta.

    Jeff Howe, uno de los primeros autores en emplear el término, estableció que el concepto de “crowdsourcing” depende esencialmente del hecho de que, debido a que es una convocatoria abierta a un grupo indeterminado de personas, reúne a los más aptos para ejercer las tareas, responder ante los problemas complejos y contribuir con las ideas más frescas y relevantes a sus aportaciones.

    Por ejemplo, se podría invitar al público a desarrollar una nueva tecnología, a llevar a cabo una tarea de diseño (también conocida como diseño basado en la comunidad y diseño participativo distribuido, a mejorar o a llevar a cabo los pasos de un algoritmo (véase computación basada en humanos), o ayudar a capturar, sistematizar o analizar grandes cantidades de datos (véase también ciencia ciudadana).

    El término se ha hecho popular entre las empresas, autores y periodistas como forma abreviada de la tendencia a impulsar la colaboración masiva habilitada por las tecnologías Web 2.0 para lograr objetivos de negocio. Sin embargo, tanto el término como sus modelos de negocio subyacentes han generado controversia y críticas.

    LinkedIn:

    El propósito del sitio es permitir a los usuarios registrados mantener una lista de los datos de contacto de las personas que conocen y confían en los negocios. La gente de la lista Conexiones de llamada. Los usuarios pueden invitar a cualquier persona (ya sea un usuario del sitio o no) para convertirse en una conexión.

    Esta lista de conexiones se pueden utilizar en varias maneras:

    * Una red de contactos se basa compuesto por sus conexiones directas, las conexiones de cada uno de sus conexiones (denominado conexiones de segundo grado) y también las conexiones de las conexiones de segundo grado (llamada conexiones de tercer grado). Esto se puede utilizar para obtener una introducción a alguien una persona desea saber a través de una mutua, confianza contacto.
    * A continuación, se puede utilizar para encontrar trabajo, las personas y las oportunidades de negocio recomendado por alguien en la red de contacto con uno.
    * Los empleadores pueden lista de puestos de trabajo y búsqueda de candidatos potenciales.
    * Los solicitantes de empleo puede revisar el perfil de los gerentes de contratación y descubrir cuáles de sus contactos existentes puedan introducir.
    * Los usuarios pueden publicar sus propias fotos y ver fotos de los demás para ayudar a identificarlo.
    * Los usuarios ahora pueden seguir diferentes empresas y puede recibir una notificación acerca de la nueva unión y ofertas disponibles.
    * Los usuarios pueden guardar (es decir, marcador) puestos de trabajo que les gustaría solicitar.

    El “enfoque cerrado de acceso” (donde el contacto con cualquier profesional requiere ya sea una relación preexistente, o la intervención de un contacto de ellos) se destina a fomentar la confianza entre los usuarios del servicio. LinkedIn participa en la Internacional ante la UE de Principios de Puerto Seguro [21].

    LinkedIn también permite a los usuarios a las empresas de investigación con las que puedan estar interesados en trabajar. Al escribir el nombre de una empresa que figura en el cuadro de búsqueda, las estadísticas sobre la compañía se proporcionan. Estos pueden incluir la proporción de mujeres a los empleados varones, el porcentaje de los títulos más comunes o posiciones dentro de la empresa, la ubicación de la sede de la compañía y las oficinas, o una lista de empleados actuales y anteriores.

    Enviar CV en podcast:

    El podcasting consiste en la distribución de archivos multimedia (normalmente audio o vídeo, que puede incluir texto como subtítulos y notas) mediante un sistema de redifusión (RSS) que permita suscribirse y usar un programa que lo descarga para que el usuario lo escuche en el momento que quiera. No es necesario estar suscrito para descargarlos. Un podcast se asemeja a una suscripción a un blog hablado en la que recibimos los programas a través de Internet. También una ventaja del podcast es la posibilidad de escuchar en lugares sin cobertura. Su contenido es diverso, pero suele ser una persona hablando sobre diversos temas. Esta es la definición base. Ahora bien, puede ser ampliada de diferentes maneras. Hay podcasts sobre diversos temas, sobre todo tecnológicos. Mucha gente prefiere usar un guión y otros hablan a capella y de forma improvisada. Algunos parecen un programa de radio, intercalando música, mientras que otros hacen podcasts más cortos y exclusivamente con voz, igual que con los weblogs.

    Se utilizan menos estos otros:

    Un webmaster en contraposicion a  Community manager (contracción de las palabras inglesas web y master) o en femenino webmistress es la persona responsable de mantenimiento o programación de un sitio web. La definición específica de este cargo puede variar según el ámbito en el que se presente a la persona: en ciertos casos es el responsable de los contenidos del sitio , mientras que en otros es el encargado de la operatibilidad, programación y mantenimiento de la disponibilidad de un sitio web sin que necesariamente intervenga en la creación de contenidos

    La labor de un webmaster es multidisciplinar debido a la gran cantidad de tareas que realiza y a la complejidad de las habilidades para ejecutarlas, por lo que es muy importante una capacitación constante. Sin embargo hay algunos puntos básicos que un webmaster debería conocer para realizar mejor su trabajo.

    Es común que un webmaster sea alguien con formación técnica, de perfil tecnológico, como ingenieros o licenciados en computación, ciencias informáticas, cibernética, telecomunicaciones, mecatrónica o mecánica. Sin embargo, esto no es un requisito.

    Un webmaster debe tener habilidades de análisis de problemas, capacidad para razonamiento abstracto, proyección a futuro y resolución de problemas. No es necesaria una gran habilidad matemática, pero es muy útil tener cierta habilidad para el análisis de procesos.

    Para un webmaster es importante desarrollar sus habilidades de redacción e incluso las de diseño gráfico, de organización del tiempo, el dominio del inglés (que es el lenguaje de trabajo en la Web de facto) y las relaciones personales: por lo general un webmaster tiene que relacionarse con muchas personas.

    Web 2.0 en contraposición de Social Media antes vista.

    La red original, llamada Web 1.0, se basaba en páginas estáticas programadas en HTML (Hyper Text Mark Language) que no eran actualizadas frecuentemente. El éxito de las .com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS Sistema de gestión de contenidos (Content Management System en inglés, abreviado CMS) servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como factores importantes.

    Los teóricos de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes, creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.

    Es la nueva forma de aprovechar la red, permitiendo la participación activa de los usuarios, a través de opciones que le dan al usuario voz propia en la web, pudiendo administrar sus propios contenidos, opinar sobre otros, enviar y recibir información con otras personas de su mismo estatus o instituciones que así lo permitan. La estructura es más dinámica y utiliza formatos más modernos, que posibilitan más funciones.

    Importancia

    La interacción de los usuarios es fundamental, el hecho de que las personas puedan participar de los contenidos les hace sentirse parte de la red, aumenta el interés por la misma y permite que los contenidos originales de ciertas páginas sean alimentados por particulares, que se abran discusiones, se comparta acerca de temas comunes entre personas de toda clase, entre otras posibilidades. Todo esto le da a la web un valor adicional, el usuario no esta solo para buscar y recibir información sino para emitirla, construirla y pensarla.

    Características

    • Las páginas son dinámicas, integran recursos multimedia como videos, sonidos, que se pueden compartir.
    • Los formatos utilizados para diseñarlas son java script, PHP, u otras similares, que permiten más funcionalidad.
    • Emplean interfaces de fácil entendimiento para la interacción del usuario.
    • La información se puede presentar en varias formas ( escrita, audiovisual), y que esta se comparta entre los usuarios o entre estos y los dueños de las páginas.
    • Permite que el usuario cree su propio contenido.
    • La información se puede transmitir unidireccional o bidireccionalmente.

    Blackberry y PC sustituidos por Iphone e Ipad.

    BlackBerry es una línea de teléfonos inteligentes (smartphones) que integran el servicio de correo electrónico móvil.

    • Llamadas telefónicas vía celular.
    • Intercambio de mensajeria de texto
    • Servicio de correo electrónico instantáneo (tecnología push).
    • Sistema de mensajería instantánea (PIN), mediante chat o estilo correo. ej: BB pin:2E340BA1
    • Gran cantidad de aplicaciones para complementar las funciones del equipo.
    • Cámara fotográfica.
    • Cámara de video (En algunos modelos)
    • Reproductor Multimedia (Música, Imágenes, Videos, Notas de Voz)
    • Tiene agenda, libreta de notas, lista de tareas.
    • Soporte para archivos adjuntos (Openoffice, Imágenes)
    • GPS Sistema de posicionamiento global.
    • Bluetooth
    • Conexión Wi-Fi, (en algunos modelos)

    En resumen estamos en constante evolución y como en todo las tendencias van cambiando, por épocas encontraremos el uso de ciertas tecnologías y posiblemente con el tiempo se vuelvan a utilizar las otras si es que siguen siendo las mismas, pero como en el mercado hay una lucha contínua, todas intentarán renovarse y ofrecer lo que los usuarios más reclamen.

    Recomiendo una revista electrónica interesante sobre las nuevas tendencias y nuevos inventos tecnológicos

    http://tecnomagazine.net/

    INTRODUCCIÓN TIC

    Posted: December 31, 2010 in Destacado

    Entendemos por Tecnologias de la Información y de la Comunicación a la informática (software..) , las audiovisuales (videojuegos, dvd..) y las telecomunicaciones (movil, GPRS…). Un mundo digital, multimedia, telemático, en resumen MASS MEDIA. Estas nuevas tecnologías se caracterizan por su inmaterialidad algunas, su interconexión, interactividad, instantaneidad, penetración en todos los sectores, tendencia a la automatización, creación de nuevos lenguajes expresivos, constante innovación, etc.

    Las nuevas Tecnologías es una materia que tiene gran transversalidad en relación a campos como la biotecnología, el ocio, la salud, la psicomotricidad, la educación, la gestión, el alto rendimiento, etc.

    Entre otras cosas nos permiten: comunicarnos de forma sincrónica y asincrónica, y de manera fiable y rápida y con costos notablemente más reducidos que en las décadas anteriores, con personas situadas en continentes diferentes al nuestro; realizar transacciones comerciales sin entrar en los bancos y cajas de ahorros; efectuar el trabajo desde nuestro propio domicilio; o ofrecer un diagnóstico médico con tanta fiabilidad como si estuviéramos delante del enfermo. A ellos podemos incorporarle el acceder a bases de datos que hasta hace relativamente poco tiempo estaban limitadas a un círculo reducido de personas, conversar con desconocidos en los círculos IRC, la visita a versiones virtuales de los museos de mayor prestigio y reconocimiento mundial, o la utilización de estas tecnologías para
    múltiples fines, que van, desde la educación y formación, hasta la industria, la investigación, o la
    navegación.

    En los tiempos actuales la tecnología ha pasado a ser una mercancía, uno de los productos fundamentales del consumo de la modernidad. Su impacto se extiende a todos aspectos de la vida, desde el cambio cultural, al de las organizaciones sociales, la política, entre otras.

    La aplicación de todo esto a la actividad física y el deporte permite llevar a cabo muchisimas investigaciones y permite analizar datos y compararlos de una manera que antes hubiera sido muy costoso e incluso imposible.Estamos antes un gran proceso de globalización que nos lleva y obliga en cierta manera a reciclarnos para sacar partido a todas las nuevas investigaciones.

    En este blog trataremos los elementos mas relevantes dentro de estos avances tecnológicos, como son Internet, las bases de datos y sistemas de recogidas de información, la instrumentación y software.  Hay tres ámbitos en los que nos centraremos como son el de la educación, la cultura y la comunicación.

    La escuela , como todo lo que el hombre ha creado no puede mantenerse estática ni al margen de los cambios sociales, sino que es una de las creaciones cambiantes de la humanidad, podemos decir pues que la educación es un producto cultural , es el resultado de una práctica social, con un contenido propio, enmarcado en épocas históricamente diferentes que están señaladas por la expresión de intereses que se entremezclan para dar cuerpo y sentido a la formación de un tipo de hombre y de sociedad. Tenemos el reto contínuo de comprender las necesidades y demandas de los niños y jóvenes en general, así como las tecnologías del conocimiento afectan la forma de pensar y sentir de los educandos. Es por eso que no se puede concebir la educación fuera de la sociedad y al margen de los medios de comunicación.

    Estas son las permisas de las que partimos, aunque de cada tema puede hacerse una investigación mas profunda y un análisis crítico de las ventajas, inconvenientes, valores y contravalores de las tecnologías y su uso pero veremos los aspectos mas relevantes en este blog.

    En este enlace encontrareis un artículo sobre la evolución de las nuevas tecnologías.