trabajo


Trabajo

crear un documento nuevo en photoshop (640 x 480 - 1024 x 760)

* editar: -brillo y contraste
- transformacion de imagenes
- tono y saturacion
- efectos
- color

* incorporar nombre y curso de los integrantes

* guardar el archivo en 2 formatos. (PSD - PDD / JPG - JPEG)

* posteriormente publicar en su blogspot ( individual) trabajo creado en taller web

POST: respaldo de imágenes
- fuentes
- plugins y filtro

Desarrollo Actividad 1

-Acoplar imagen: significa que todas las capas existentes en un documento se unirán en una sola. Se utiliza para poder guardar la imagen en formatos que solo admiten una capa, como JPEG, GIF, etc.
-Brillo: luminosidad u oscuridad de un color. Se mide en tanto por cien, el 0 % equivale a negro y el 100 % equivale a blanco.
-Canal: toda imagen está compuesta por canales, el número de ellos depende del modo de color de la imagen. Por ejemplo, una imagen RGB, tendrá un canal para cada uno de los colores básicos( un canal para el rojo (Red), otro para el verde (Green) y otro para el azul (Blue)
-Canales Alfa: además de canales de colores están los canales Alfa, que son utilizados para guardar selecciones. En la paleta se mostrará una nueva miniatura, las partes blancas indicarán las zona seleccionadas, las partes negras indicarán las zonas no seleccionadas.
-Canal compuesto: canal compuesto será aquel que consta de dos o más canales.
-Canales de color: los diferentes canales que posee una imagen y contienen información sobre sus colores.
-Capa: una capa es un recurso de Photoshop que simula una hoja transparente o acetato. En esta se podrá escribir, pintar, insertar imágenes, etc sin que esta pierda su transparencia, pudiendo hacer cada una de estas acciones en capas diferentes. Photoshop permite manejar hasta 100 capas diferentes.
-Capa activa: la capa se muestra resaltada de color azul y será la que se podrá editar. Es importante saber en todo momento cuál es la capa activa, ya que numerosas veces al hacer una modificación no surge efecto y esto se debe a que la capa activa es otra de la deseada.
-Capa de fondo: todo documento estará compuesto como mínimo de una capa, y esta será la capa de fondo. En documentos de mas de una capa, la capa de fondo será la capa inferior, esta no se puede modificar.
-Capa de imagen: una capa de imagen será aquella que contiene imágenes y es susceptible a los efectos.
-Capa de texto: cada vez que se escribe un texto en el documento se crea automáticamente una capa. Esta capa contendrá solo el texto escrito y no se le podrá aplicar ningún efecto.
-Capas enlazadas: se llama capa enlazada a aquella capa en la que se visualiza una pequeña cadena. En lazamos capas para hacer momentáneamente una sola capa con las que están enlazadas. Las capas enlazadas sufrirán las mismas modificaciones que la capa actual.
-Color frontal y color de fondo: son los colores almacenados en la paleta de colores. Con el frontal se pinta, rellena, se hacen degradados, etc, con el color de fondo se rellenarán las zonas borradas y los aumentos del documento.
-Colores puros: llamamos colores puros a los colores primarios y sus mezclas, son puros y no están compuestos por otros.
-Contraste: según el valor de contraste permite ver un documento con colores más puros o más apagados. Un contraste mínimo equivale a gris y un contraste máximo convertirá el documento a colores puros.
-Formato de imagen: el formato de imagen o de archivo se refiere a la estructura de datos en que se guardará el documento, por ejemplo: JPEG, TIFF, BMP... Photoshop soporta gran variedad de formatos (ver tipos de formato).
-Guías: son líneas que solamente se ven en pantalla y no se imprimen. Es una herramienta de gran utilidad ya que permite ajustar selecciones, borde de selecciones y herramientas a estas líneas. Se muestra una guía al pinchar sobre una regla y arrastras el puntero hacia el documento.
-Illustrator: programa de Adobe muy similar a Photoshop en cuanto herramientas, excepto que Illustrator es vectorial.
-Máscaras de capa: se utiliza para cubrir partes de una capa que no interesa mostrar. Las zonas enmascaradas no se pierden, sino que se ocultan tras la máscara sin necesidad de borrarlas. Al desactivar la máscara se volverán a ver. Son de gran utilidad si se quiere difuminar los bordes de una imagen, para ello en el menú capas añadimos máscara de capa. Con color negro se añade máscara, con blanco se quita máscara. No funciona en la máscara de fondo.
-Modos de color: cada uno de los modelos en que se puede representar una imagen tanto en su visualización como impresión.
-Opacidad: opción que permite controlar el grado de transparencia de una capa. Esto variará su propia visibilidad y como se verán las capas que estén por debajo de ella.
-Saturación: saturación es la medida de la autenticidad de un color, es su pureza. Representa la cantidad de gris de un color respecto a su tono. El 0 % equivale a gris y el 100 % será la saturación completa.
-Tono: el tono es la propiedad de un color, el color percibido por el ojo. Así, se dice que un objeto tiene tono rojo, azul, verde, pues se expresa por el nombre de color.

Taller web: utilizacion de software phtoshop

Objetivo: implementacion de caja de herramientas de software
retoque de imagenes digitales utilizando photoshop

Habilidades: creatividad - indigacion en interne
utilizacion de entornos virtuales de aprendizajes
( bogger - wikispaces)

Aunque existen muchas herramientas de retoque de imagenes que son mas baratas y mas faciles de usar, photoshop es la mas destacada en el retoque digital de magenes. En ese taller web utilizaremos lo mas elemental del software en la creacion y en la edicion de imagenes digitales.

Indice del manual: la caja de herramientas - herramientas de seleccion - herramientas de piuntura - herramientas de edicion - herramientas de visualizacion - modos de fusion - paletas - menu achivo - menu edicion - menu imagen - menu capa - menu seleccion - menu filtro menu vista - menu ventana.

ACTIVIDAD 1: busque y publique en su blog los siguientes terminos:

acoplar imagen: Unir o encajar entre sí dos piezas o cuerpos de manera que ajusten perfectamente: acoplar la rueda a su eje. También prnl. con valor recíproco: las piezas del mueble se acoplan muy bien.

brillo: canal, canales alfa, canal compuesto, canal de color, capa, capactiva, capa de fondo, capa de imagen, capa de texto, capas enlazadas, color fronal, color de fondo, colores, puros, contraste, formato de imagen, guias, ilustrator, mascaras de capas, modos de color, opacidad, saturación y tono

ACTIVIDAD 2: busque y publique en el blog:

post: vincular links de paginas web de ayuda

sugerencias: descargar software de photoshop desde la vesion 7 hacia arriba

Actividad

actividad N°1 1.-investige en iternet los siguientes conceptos:

A) Eva (entorno virtual de aprendizaaje
B) Tics
C) e-learning
D) web 2.0
E) Rss

Acitividad N°2

1.-agregue un RSS

Actividad N°3

1.- ingrese al sitio web www.wikispaces.com

2.- genere una cuenta y un sitio wiki (añadir direccion al blog)

Entornos virtuales de Aprendizaje (EVA)

Para éste, un Entorno Virtual de Aprendizaje (EVA) consiste en el conjunto de las distintas funcionalidades asociadas a la actividad formativa. El EVA permite la creación y mantenimiento de comunidades virtuales, proporcionando los servicios con los que cada comunidad se identifica, y que garantizan la integración, enriquecimiento y fidelidad de sus usuarios. Tanto el EVA y como el aula virtual son personalizados teniendo en cuenta las herramientas elegidas así como la imagen corporativa del cliente: diseño de la página principal y de los iconos, maquetación de los documentos, etc , precisan.

Por lo general, en un ámbito virtual de estas características, el alumno inscrito y matriculado, recibe una clave identificativa (nombre de usuario y clave de acceso), que reemplaza al tradicional carné de estudiante que entregan las instituciones presenciales, y que le permitirá ser reconocido por el sistema y acceder al entorno y sus aulas virtuales.

Claro que para acceder al mismo desde cualquier parte y en cualquier momento-, se deberá contar con un ordenador con conexión a Internet y requisitos técnicos mínimos.

Un Entorno Virtual debería permitir, algunas cuestiones fundamentales:

- Compartir opiniones, experiencias y conocimientos -de forma sincrónica o asíncrona- con otros alumnos.
- Búsqueda rápida de contenidos, que deberán estar digitalizados.
- Base de datos de preguntas y respuestas más frecuentes.
- Foros de noticias y novedades.
- Corrección de exámenes de forma inmediata y justificación del motivo por el cual es correcta o incorrecta la respuesta marcada por el alumno.
- Preguntas de auto evaluación con soluciones y justificaciones de las mismas.
- Enlaces a páginas web recomendadas con una pequeña explicación del contenido de éstas.
- Bibliografía comentada (parte de ella, por lo menos la más sustancial, deberá estar digitalizada).
- Glosario terminológico.
- Agenda de los acontecimientos vinculados al desarrollo del estudio.
- Publicación de los eventos sobre la temática del curso que se esté realizando.
- Actualización de la documentación de disponibilidad inmediata para los alumnos.
- Mesa de ayuda permanente.

Una de las grandes ventajas que ofrecen los Entornos Virtuales de Aprendizaje es que los usuarios identificados (tutores, alumnos y administradores) pueden comunicarse entre sí en cualquier momento, enviar los trabajos y recibir los resultados de sus ejercicios. Asimismo, tendrán acceso a bases de datos del centro de formación.

Cabe destacar, además, que para entablar estas comunicaciones no es necesario coincidir en tiempo y espacio con el interlocutor o los interlocutores seleccionados.

En términos generales, el Entorno Virtual de Aprendizaje establece una red de comunicación total entre todos sus usuarios, potenciando el aprendizaje, la cooperación, la creación de nuevas iniciativas, etc., con resultados altamente positivos.

Una de las características más destacables de los entornos virtuales de aprendizaje es la de crear espacios en los que no sólo es posible la formación sino que también es posible informarse, relacionarse, comunicarse y gestionar datos y procesos administrativos , señalan Albert Sangrà y Lourdes Guàrdia (Universitat Oberta de Catalunya) en su trabajo: criterios de calidad para evaluar entornos y plataformas virtuales de aprendizaje. Se trata de un entorno institucional donde conviven diferentes perfiles de usuarios, puntualizan los expertos


__________________________________________________________________

Web 2.0

El término Web 2.0 fue acuñado por Tim O'Reilly en 2004 para referirse a una segunda generación de Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios.

Introducción

El concepto original de la web (en este contexto, llamada Web 1.0) era páginas estáticas HTML que no eran actualizadas frecuentemente. El éxito de las punto-com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como unos factores muy importantes.
Los propulsores de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.

Origen del término

El término fue acuñado por Dale Dougherty de O'Reilly Media en una lluvia de ideas con Craig Cline de MediaLive para desarrollar ideas para una conferencia. Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban y modelos de negocio que evolucionaban. Dougherty puso ejemplos — "DoubleClick era la Web 1.0; Google AdSense es la Web 2.0. Ofoto es Web 1.0; Flickr es Web 2.0." — en vez de definiciones, y reclutó a John Battelle para dar una perspectiva empresarial, y O'Reilly Media, Battelle, y MediaLive lanzó su primera conferencia sobre la Web 2.0 en Octubre del 2004. La segunda conferencia se celebró en octubre de 2005.

En su conferencia, O'Reilly y Battelle resumieron los principios clave que creen que caracterizan a las aplicaciones web 2.0: la web como plataforma; datos como el "Intel Inside"; efectos de red conducidos por una "arquitectura de participación"; innovación y desarrolladores independientes; pequeños modelos de negocio capaces de sindicar servicios y contenidos; el perpetuo beta; software por encima de un solo aparato.
En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para proporcionar servicios interactivos en red dando al usuario el control de sus datos.
Así, podemos entender como 2.0 "todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando datos a la información existente), bien en la forma de presentarlos, o en contenido y forma simultáneamente." (Ribes, 2007)

Tecnología

La infraestructura de la Web 2.0 es compleja y va evolucionando, pero incluye el software de servidor, sindicación de contenidos, protocolos de mensajes, navegadores basados en estándares, y varias aplicaciones para clientes.
Una web se puede decir que está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:

Técnicas:

General:

  • El sitio no debe actuar como un "jardín cerrado": la información debe poderse introducir y extraer fácilmente
  • Los usuarios deberían controlar su propia información
  • Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador

Redifusión de contenido

La primera y más importante evolución de la Web 2.0 se refiere a la redifusión del contenido de una Web, usando protocolos estandarizados que permitan a los usuarios finales usar el contenido de la web en otro contexto, ya sea en otra web, en un conector de navegador o en una aplicación de escritorio. Entre los protocolos que permiten sindicar se encuentran RSS, RDF (conocido también como RSS 1.1), y Atom, todos ellos variedades de XML. Los protocolos específicos como FOAF y XFN (ambos para redes sociales) amplían la funcionalidad de los sitios y permiten a los usuarios interactuar sin contar con sitios Web centralizados. Véase Microformats para más información sobre formatos de datos especializados.
Debido al reciente desarrollo de estos, muchos son de facto en lugar de verdaderos estándares.

Servicios Web

Los protocolos de mensajes bidireccionales son uno de los elementos clave de la infraestuctura de la Web 2.0. Los dos tipos más importantes son los métodos RESTful y SOAP. REST indican un tipo de llamada a un servicio web donde el cliente transfiere el estado de todas las transacciones. SOAP y otros métodos similares dependen del servidor para retener la información de estado. En ambos casos, el servicio es llamado desde un API. A veces este API está personalizado en función de las necesidades específicas del sitio web, pero los APIs de los servicios web estándares (como por ejemplo escribir en un blog) están también muy extendidos. Generalmente el lenguaje común de estos servicios web es el XML, si bien puede haber excepciones.
Recientemente, una forma híbrida conocida como Ajax ha evolucionado para mejorar la experiencia del usuario en las aplicaciones web basadas en el navegador. Esto puede ser usado en webs propietarias (como en Google Maps) o en formas abiertas utilizando un API de servicios web, una semilla de sindicación.

Software de servidor

La funcionalidad de Web 2.0 se basa en la arquitectura existente de servidor web pero con un énfasis mayor en el software dorsal. La sindicación sólo se diferencia nominalmente de los métodos de publicación de la gestión dinámica de contenido, pero los servicios Web requieren normalmente un soporte de bases de datos y flujo de trabajo mucho más robusto y llegan a parecerse mucho a la funcionalidad de intranet tradicional de un servidor de aplicaciones. El enfoque empleado hasta ahora por los fabricantes suele ser bien un enfoque de servidor universal, el cual agrupa la mayor parte de la funcionalidad necesaria en una única plataforma de servidor, o bien un enfoque plugin de servidor Web con herramientas de publicación tradicionales mejoradas con interfaces API y otras herramientas. Independientemente del enfoque elegido, no se espera que el camino evolutivo hacia la Web 2.0 se vea alterado de forma importante por estas opciones.

Relaciones con otros conceptos

La web 1.0 principalmente trata lo que es el estado estatico, es decir los datos que se encuentran en esta no pueden cambiar se encuentran fijos, no varían, no se actualizan.

Comparación con la Web Semántica

En ocasiones se ha utilizado el término Web 2.0 como análogo a Web semántica[cita requerida]. Sin embargo ambos conceptos, aun siendo afines, no son iguales, sino más bien complementarios. La combinación de sistemas de redes sociales, como FOAF y XFN, con el desarrollo de etiquetas (o tags), que en su uso social derivan en folcsonomías, así como el plasmado de todas estas tendencias a través de blogs y wikis, confieren a la Web 2.0 un aire semántico. Sin embargo, en el sentido más estricto de Web semántica se requiere el uso de ontologías y no de folcsonomías. De momento, el uso de ontologías como mecanismo de estructurar la información en los programas de blogs es anecdótico [2] y sólo se aprecia de manera incipiente en algunos wikis.
Bien podría hablarse de la Web 3.0 para la Web semántica[cita requerida]. Pero una diferencia fundamental entre ambas versiones de web (2.0 y semántica) es el tipo de participante. La 2.0 tiene como principal protagonista al usuario humano que escribe artículos en su blog o colabora en un wiki. El requisito es que además de publicar en HTML emita parte de sus aportaciones en XML/RDF (RSS, ATOM, etc.). La web semántica, sin embargo, está orientada hacia el protagonismo de procesadores mecánicos que entiendan de lógica descriptiva en OWL y concebida para que las máquinas hagan el trabajo de las personas a la hora de procesar la avalancha de información publicada en la Web .

RSS

RSS es un sencillo formato de datos que es utilizado para redifundir contenidos a suscriptores de un sitio web. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional.

RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).

Este acrónimo se usa para referirse a los siguientes estándares:

  • Rich Site Summary (RSS 0.91)
  • RDF Site Summary (RSS 0.9 y 1.0)
  • Really Simple Syndication (RSS 2.0)
  • Además es usual que el término RSS sea usado indistintamente para referirse a cualquiera de los formatos RSS o Atom.

Gracias a los agregadores o lectores de feeds (programas o sitios que permiten leer fuentes web) se pueden obtener resúmenes de todos los sitios que se desee desde el escritorio del sistema operativo, programas de correo electrónico o por medio de aplicaciones web que funcionan como agregadores. No es necesario abrir el navegador y visitar decenas de webs.

Pero lo verdaderamente importante es que, a partir de este formato, se está desarrollando una cadena de valor nueva en el sector de los contenidos que está cambiando las formas de relación con la información tanto de los profesionales y empresas del sector como de los usuarios. Varias empresas están explorando nuevas formas de uso y distribución de la información.

La redifusión web no es sólo un fenómeno vinculado a los weblogs, aunque han ayudado mucho a su popularización. Siempre se han sindicado contenidos y se ha compartido todo tipo de información en formato XML, de esta forma podemos ofrecer contenidos propios para que sean mostrados en otras páginas web de forma integrada, lo que aumenta el valor de la página que muestra el contenido y también nos genera más valor, ya que normalmente la redifusión web siempre enlaza con los contenidos originales.

E-Learning

Según el artículo "Estado actual de los sistemas e-learning" de Francisco José García Peñalvo de la Universidad de Salamanca, el e-learning es un concepto muy complejo. Por un lado habla de él como una herramienta formativa desde un punto de vista pedagógico y tecnológico. Esto es, pedagógicamente se trata de hacer una pedagogía de transmisión del saber más allá de la propia inserción de contenidos en la red (actual sociedad de la información que creo debe convertirse en sociedad del conocimiento). Tecnológicamente, las NTIC son el soporte de este nuevo concepto de educación. Por otro lado, habla de él como un uso. Un uso formativo “una fuente de servicios para alcanzar su cometido formativo”. Además, etimológicamente, e-learning es aprendizaje electrónico: todo proceso formativo que uso cualquier tipo de NTIC. Desde este punto de vista, el profesorado lleva haciendo uso del e-learning desde la inclusión de los aparatos audio, visuales y audiovisuales. Así se pronuncia la American Society of Training and Development que lo define como “término que cubre un amplio grupo de aplicaciones y procesos, tales como aprendizaje basado en web, aprendizaje basado en ordenadores, aulas virtuales y colaboración digital. Incluye entrega de contenidos vía Internet, intranet/extranet, audio y vídeo grabaciones, transmisiones satelitales, TV interactiva, CD-ROM y más”. No obstante, otros autores lo definen como el uso de software y hardware en el entorno de Internet, como Rosenberg (2001): “el uso de tecnologías Internet para la entrega de un amplio rango de soluciones que mejoran el conocimiento y el rendimiento. Está basado en tres criterios fundamentales: 1. El e-learning trabaja en red, lo que lo hace capaz de ser instantáneamente actualizado, almacenado, recuperado, distribuido y permite compartir instrucción o información. 2. Es entregado al usuario final a través del uso de ordenadores utilizando tecnología estándar de Internet. 3. Se enfoca en la visión más amplia del aprendizaje que van más allá de los paradigmas tradicionales de capacitación”. Desde la perspectiva que ofrece la experiencia en el desarrollo y explotación de plataformas e-learning, García Peñalvo ofrece su propia definición de e-learning como la “capacitación no presencial que, a través de plataformas tecnológicas, posibilita y flexibiliza el acceso y el tiempo en el proceso de enseñanza-aprendizaje, adecuándolos a las habilidades, necesidades y disponibilidades de cada discente, además de garantizar ambientes de aprendizaje colaborativos mediante el uso de herramientas de comunicación síncrona y asíncrona, potenciando en suma el proceso de gestión basado en competencias”.

Por tanto a la vista de lo expuesto, podemos definir el e-learning de la siguiente manera:

Enseñanza a distancia caracterizada por una separación física entre profesorado y alumnado (sin excluir encuentros físicos puntuales), entre los que predomina una comunicación de doble vía asíncrona donde se usa preferentemente Internet como medio de comunicación y de distribución del conocimiento, de tal manera que el alumno es el centro de una formación independiente y flexible, al tener que gestionar su propio aprendizaje, generalmente con ayuda de tutores externos.

Elementos técnicos necesarios en e-learning

Una solución e-learning está conformada por tres elementos fundamentales: Plataforma, Contenidos y Herramientas comunicativas.

Plataforma

El entorno de hardware y software diseñado para automatizar y gestionar el desarrollo de actividades formativas se conoce como Plataforma de Teleformación o LMS (Learning Management System).

Un LMS registra usuarios, organiza catálogos de cursos, almacena datos de los usuarios y provee informes para la gestión. Suelen incluir también herramientas de comunicación al servicio de los participantes en los cursos.

Las mejoras en Usabilidad (navegación fácil e intuitiva) y Accesibilidad ( posibilidad de acceso por personas con discapacidad) permiten salvar la brecha digital y extender las posibilidades de formación a mayor número de personas, superando una de las mayores barreras del e-learning: la barrera tecnológica.

Actualmente existen gran mayoría de plataformas, tanto de comerciales como de código abierto. En el ámbito universitario es la WebCT la plataforma más utilizada, seguida a bastante distancia de la plataforma Edustance. Se está empezando a implantar con fuerza la plataforma de licencia libre Moodle. También se utiliza en varias universidades la plataforma de código abierto .LRN (se lee en inglés: dot learn).

Contenidos

La calidad de los contenidos supone una condición necesaria, aunque no suficiente, para el éxito del programa formativo.

Es frecuente encontrar cursos on-line en los que sus contenidos no pasan de ser mera virtualización de cursos previos en los que el alumno lee ahora en pantalla lo que antes podía leer en papel. Esto es más e-reading que e-learning. El diseño de los contenidos debe de ser realizado por expertos en metodología didáctica con el objetivo de que respondan a:

  • adecuación a las necesidades y posibilidades del alumno
  • calidad y cantidad de la información presentada.
  • interactividad.
  • estructura adecuada para su correcta asimilación.

Con la aparición de los estándares, a partir del año 2001, se garantizaba la independencia de los contenidos y las LMS, de forma que se cumplan ciertas especificaciones sobre las que basar el desarrollo de herramientas y contenidos:

  • Accesibilidad, independiente de la plataforma en la que estén los contenidos.
  • Interoperabilidad: el contenido puede ser usado en diferentes plataformas
  • Reusabilidad: Los contenidos pueden ser utilizados una y otra vez en diferentes programas educativos.
  • Durabilidad: El contenido podrá utilizarse sin importar los cambios en la tecnología con la cual se elaboró.

Actualmente hay diversos estándares utilizables, como son el AICC (desarrollado por la industria de la aviación de EEUU), IEEE LTSC (Instituto de Ingenieros Electrónicos e Informáticos), IMS (del Global Learning Consortium), y el más utilizado y extendido: SCORM.

Las ventajas de la estandarización posibilita que se pueda elegir libremente los proveedores de contenidos y herramientas, y la reutilización de los cursos en plataformas diferentes, abaratando considerablemente las inversiones que hay que realizar en planes de formación.

Herramientas comunicativas

Tenemos una plataforma y unos contenidos, ¿con esto ya podemos poner en marcha un curso on-line? La respuesta es no. Las herramientas de comunicación en este entorno formativo constituyen otra pieza clave, ya que permiten la interacción entre los diferentes agentes del proceso de enseñanza-aprendizaje. Dicha interacción se concreta en la posibilidad de realizar trabajos en grupo, intercambiar experiencias, proporcionar apoyo por parte del tutor, resolución de dudas, etc.

Según que la comunicación sea en tiempo real o no, tenemos:

Herramientas de comunicación síncrona: teléfono, Chat, webcam, videoconferencia, pizarra electrónica, documentos compartidos on-line.
Herramientas de comunicación asíncrona: son las que le dan al e-learning buena parte de su carácter (“anytime, anywhere”). Foros de debate, grupos de noticias, correo electrónico, y últimamente los Blogs y las Wiki

Propuestas de e -Learning

La puesta en marcha de estrategias de e-Learning ha generado gran cantidad de propuestas entre las que se destacan:

  • Entrenamiento apoyado en equipos de cómputo. (Computer Based Training -CBT)
  • Entrenamiento basado en tecnologías Web. (Web Based Training -WBT)
  • Educación Virtual.
  • Aprendizaje colaborativo basado en la Web.
  • Aprendizaje colaborativo con apoyo informático.
  • Televisión Educativa
  • Educación por radio.
  • Juegos Educativos Digitales.

Plataformas de e-learning

Libres (Código abierto)

No Libres (Privativas)

Tecnologías de la información y la comunicación (Tic)

Las tecnologías de la información y la comunicación son un conjunto de servicios, redes, software, aparatos que tienen como fin el mejoramiento de la calidad de vida de las personas dentro de un entorno, y que se integran a un sistema de información interconectado y complementario. Esta innovación servirá para romper las barreras que existen entre cada uno de ellos.

Tecnologías de la Información y la Comunicación (TIC), son un solo concepto en dos vertientes diferentes como principal premisa de estudio en la ciencias sociales donde tales tecnologías afectan la forma de vivir de las sociedades. Su uso y abuso exhaustivo para denotar modernidad ha llevado a visiones totalmente erroneas del origen del término.

Las tecnologías como tal no se encargan del estudio, desarrollo, implementación, almacenamiento y distribución de la información mediante la utilización de hardwaresoftware como recursos de los sistemas informáticos. De eso se encarga la ciencia informática. y

Como concepto sociológico y no informático se refieren a saberes necesarios que hacen referencia a la utilización de multiples medios informáticos para almacenar, procesar y difundir todo tipo de información, telemática, etc. con diferentes finalidades (formación educativa, organización y gestión empresarial, toma de decisiones en general, etc.).

Por tanto no trata del objeto concreto sino de aquellos objetos intangibles para la ciencia social. Por ejemplo democracia, y nuevas tecnologías de la información y la comunicación (NTIC) son dos conceptos que viajan en una misma dirección, mientras democracia es espíritu las NTIC son métodos, recursos, libertades que ofrecen transparencia a las gestiones gubernamentales.

Definición

A diferencia de la NTIC, las TI (Tecnologías de Informática) se encargan del diseño, desarrollo, fomento, mantenimiento y administración de la información por medio de sistemas informáticos, para información, comunicaicón o ambos. Esto incluye todos los sistemas informáticos no solamente las computadoras, éstas son sólo un medio más, el más versátil, pero no el único; también las redes de telecomunicaciones, telemática, los teléfonos celulares, la televisión, la radio, los periódicos digitales, faxes, dispositivos portátiles, etc. Todas esas herramientas electrónicas de primera mano son de carácter determinante en la vida de todo profesional, sobre todo en el docente pues es él, el que se encargará de difundir la importancia de esta nueva tecnología.

Las TIC se conciben como el universo de dos conjuntos, representados por las tradicionales Tecnologías de la Comunicación (TC) - constituidas principalmente por la radio, la televisión y la telefonía convencional - y por las Tecnologías de la información (TI) caracterizadas por la digitalización de las tecnologías de registros de contenidos (informática, de las comunicaciones, telemática y de las interfaces)”. Pero en su sentido social y no netamente informático puesto que no tendría tal caso hacernos más bolas con nuevos conceptos si estuvieramos describiendo lo mismo.

Las TIC son herramientas teórico conceptuales, soportes y canales que procesan, almacenan, sintetizan, recuperan y presentan información de la forma más variada. Los soportes han evolucionado en el transcurso del tiempo (telégrafo óptico, teléfono fijo, celulares, televisión) ahora en ésta era podemos hablar de la computadora y de la Internet. El uso de las TIC representa una variación notable en la sociedad y a la larga un cambio en la educación, en las relaciones interpersonales y en la forma de difundir y generar conocimientos.

Telecomunicaciones

Este tipo de tecnología en este nuevo siglo esta representada por los satélites, los cuales hacen que toda la información se transmita en menos de un segundo de un lugar a otro. También se encuentra la telefonía que ha tenido un desarrollo muy importante desde la fibra óptica hasta los dispositivos WiFi(redes inalámbricas), con los cuales tenemos un sin fin de ventajas como son: el aspecto económico, la velocidad de transmisión.

Informática

En esta categoría se destacan los dispositivos donde el hardware y el software están interconectados el uno con el otro. Una parte muy importante dentro de la informática son las bases de datos que cada vez van formando parte de nuestras vidas y por lo consiguiente el software esta relacionado junto con este banco de información. Gracias a estos nuevos software se pueden manipular, agregar información en cuestión de segundos.

La informática también ha ayudado en otros campos como son la medicina, al crear simuladores de distintos procesos que ayudan a reducir el margen de error dentro de alguna cirugía o algún proceso.

Necesidad

La instrumentación tecnológica es una prioridad en la comunicación de hoy en día, ya que las tecnologías de la comunicación son una importante diferencia entre una civilización desarrollada y otra en vías de desarrollo. Éstas poseen la característica de ayudar a comunicarnos ya que, a efectos prácticos, en lo que a captación y trasmisión de información se refiere, desaparece el tiempo y las distancias geográficas.

Carácter dual

La tecnología es dual por naturaleza ya que el impacto de ésta se verá afectado dependiendo del uso que le de el usuario: se puede ayudar a una comunidad rural a aprender por medio de la televisión, como también se puede explotar una bomba por medio de un teléfono celular. El uso de las tecnologías también es dual ya que pueden servir como medio de información y de entretenimiento así como también sirven de capacitación y como formación de tipo laboral,pues quien domine el campo de la informática tendrá más oportunidades de ser aceptado en el mundo laboral.

En cualquiera de los dos aspectos depende de los usuarios ofrecer contenidos de calidad, ya que es la audiencia quien determina y exige el tipo de contenidos que desea. Por tal motivo se habla de la implicación de las tecnologías dentro de la construcción social. La audiencia debe ser educada de una manera creativa, para que exijan contenidos de calidad y se elimine la marginación de mercado, ya que la programación "en el caso de la televisión, la radio y la computación está dirigida sólo a ciertos consumidores.

Las TIC y el Tercer Sector

Es común también comprender las TIC en relación a su magnitud (internet) Las Tic o Ntic tienen por objeto aportar claridad para conceptos aun más abstractos como la sociedad del conocimiento, la cual se asume fue acuñada por Peeter Drucker. El surgimiento, especialmente Internet está transformando las posibilidades de acceso a la información en el mundo entero, cambiando nuestra manera de comunicar y también las rutinas diaria en los ámbitos de trabajo. Las ONG's no han quedado al margen y al contrario han visto facilitado su trabajo gracias a ellas. Las ventajas que ofrecen las NTIC a las ONG’s son:

  • Comunicación fácil y a bajo coste.
  • Espacios de difusión, ej. Ciberactivismo.
  • Presencia mundial en el sector.
  • Posibilidad de fundraising, ej Ciberfundraising.
  • Mayor respuesta y velocidad a sus fines
  • Coordinación central y distribuida para la mejor toma de desiciones
  • Mayor impacto
  • Mejor respuesta

Hay ONGs que han sacado gran partido a estas herramientas como las exitosas campañas de movilización social y captación de socios de Amnistía Internacional, Greenpeace, Intermón-Oxfam, Médicos sin Fronteras o Friends of the Earth.

Sin embargo, pese a la gran cantidad de tecnología y herramientas disponibles hay Organizaciones que están quedando al margen de este desarrollo y beneficio, y es lo que se conoce como Brecha Digital. Donde en su mayoría son por terquedad, soberbia, ignorancia, arrogancia y falta de sentido pertinente.

Así surgen ONGs dispuestas a apoyar tecnológicamente a otras para que salgan de este agujero. Entre ellas se puede destacar el caso de:

  • The membership organization of nonprofit professionals quienes colocan las tecnologías al servicio de sus causas.
  • Ordenadores sin fronteras.
  • Circuit riders son profesionales de ICT que pueden visitar su organización para apoyarlo con sus necesidades de IT.
  • Iwith.org, fundación internacional que cree en el poder de las nuevas tecnologías para desarrollar el mundo.
  • Delivering ICT Resources for the Voluntary and Community Sector.
  • Fondo mundial de Solidaridad Digital (FSD).
  • cencap (Propuesta interesante sobre el uso moderno de las tic's en las organizaciones).
  • Social Source Commons es un sitio para compartir listas de herramientas de software que usted usa, obtiene conocimiento y soporte, Y descubre nuevas herramientas. Es un lugar para conocer gente con similares necesidades e intereses y resporder a la pregunta: que herramientas usan ellos?

Actividad

1-. Defina que es un wiki


2-. Hiper vincular dentro del texto ejemplos (5 ejemplos) plataformas de creación wiki



3-. Publicar vídeo tutorial (determine a que espacio corresponde)4-. utilice slideshare.net para buscar información sobre wiki space


5-. Ejemplos de wiki space


6-. Un foro wiki

tutorial mail2wiki

Funcionalidad de un Wiki

Definición de Wiki

Un wiki (o una wiki) (del hawaiano wiki wiki, «rápido») es un sitio web colaborativo que puede ser editado por varios usuarios. Los usuarios de una wiki pueden así crear, modificar, borrar el contenido de una página web, de forma interactiva, fácil y rápida; dichas facilidades hacen de la wiki una herramienta efectiva para la escritura colaborativa.
La tecnología wiki permite que páginas web alojadas en un servidor público (las páginas wiki) sean escritas de forma colaborativa a través de un
navegador web, utilizando una notación sencilla para dar formato, crear enlaces, etc., conservando un historial de cambios que permite recuperar fácilmente cualquier estado anterior de la página. Cuando alguien edita una página wiki, sus cambios aparecen inmediatamente en la web, sin pasar por ningún tipo de revisión previa.

Historia

El origen de los wikis está en la comunidad de
patrones de diseño, cuyos integrantes los utilizaron para escribir y discutir patrones de programación. El primer WikiWikiWeb fue creado por Ward Cunningham, quien inventó y dio nombre al concepto wiki, y produjo la primera implementación de un servidor WikiWiki para el repositorio de patrones del Portland (Portland Pattern Repository) en 1995. En palabras del propio Cunningham, un wiki es "la base de datos en línea más simple que pueda funcionar" (the simplest online database that could possibly work). El wiki de Ward aún es uno de los sitios wiki más populares.
En enero de
2001, los fundadores del proyecto de enciclopedia Nupedia, Jimbo Wales y Larry Sanger, decidieron utilizar un wiki como base para el proyecto de enciclopedia Wikipedia. Originalmente se usó el software UseMod, pero luego crearon un software propio, MediaWiki, que ha sido adoptado después por muchos otros wikis.
Actualmente, el wiki más grande que existe es la versión en inglés de Wikipedia, seguida por varias otras versiones del proyecto. Los wikis ajenos a Wikipedia son mucho más pequeños y con menor participación de usuarios, generalmente debido al hecho de ser mucho más especializados. Es muy frecuente por ejemplo la creación de wikis para proveer de documentación a programas informáticos, especialmente los desarrollados en
software libre.

Ventajas

La principal utilidad de un wiki es que permite crear y mejorar las páginas de forma instantánea, dando una gran libertad al usuario, y por medio de una interfaz muy simple. Esto hace que más gente participe en su edición, a diferencia de los sistemas tradicionales, donde resulta más difícil que los usuarios del sitio contribuyan a mejorarlo.
Dada la gran rapidez con la que se actualizan los contenidos, la palabra «wiki» adopta todo su sentido. El documento de hipertexto resultante, denominado también «wiki» o «WikiWikiWeb», lo produce típicamente una comunidad de usuarios. Muchos de estos lugares son inmediatamente identificables por su particular uso de palabras en
mayúsculas, o texto capitalizado; uso que consiste en poner en mayúsculas las iniciales de las palabras de una frase y eliminar los espacios entre ellas, como por ejemplo en EsteEsUnEjemplo. Esto convierte automáticamente a la frase en un enlace. Este wiki, en sus orígenes, se comportaba de esa manera, pero actualmente se respetan los espacios y sólo hace falta encerrar el título del enlace entre dos corchetes.

Características

Un wiki permite que se escriban artículos colectivamente (co-autoría) por medio de un lenguaje de
wikitexto editado mediante un navegador. Una página wiki singular es llamada "página wiki", mientras que el conjunto de páginas (normalmente interconectadas mediante hipervínculos) es "el wiki". Es mucho más sencillo y fácil de usar que una base de datos.
Una característica que define la tecnología wiki es la facilidad con que las páginas pueden ser creadas y actualizadas. En general no hace falta revisión para que los cambios sean aceptados. La mayoría de wikis están abiertos al público sin la necesidad de registrar una cuenta de usuario. A veces se requiere hacer login para obtener una cookie de "wiki-firma", para autofirmar las ediciones propias. Otros wikis más privados requieren autenticación de usuario.

Páginas y edición

En un wiki tradicional existen tres representaciones por cada página:
El "código fuente", editable por los usuarios. Es el formato almacenado localmente en el servidor. Normalmente es texto plano, sólo es visible para el usuario cuando la operación "Editar" lo muestra.
Una plantilla (puede que generada internamente) que define la disposición y elementos comunes de todas las páginas.
El código
HTML, renderizado a tiempo real por el servidor a partir del código fuente cada vez que la página se solicita.
El código fuente es potenciado mediante un
lenguaje de marcado simplificado para hacer varias convenciones visuales y estructurales. Por ejemplo, el uso del asterisco "*" al empezar una línea de texto significa que se renderizará una lista desordenada de elementos (bullet-list). El estilo y la sintaxis pueden variar dependiendo de la implementación, alguna de las cuales también permite etiquetas HTML.

¿Por qué no HTML?

La razón de este diseño es que el
HTML, con muchas de sus etiquetas crípticas, no es fácil de leer por usuarios no técnicos. Hacer visibles las etiquetas de HTML provoca que el texto en sí sea difícil de leer y editar para la mayoría de usuarios. Por lo tanto se promueve el uso de edición en texto llano con unas convenciones fáciles para la estructura y el estilo.
A veces es beneficioso que los usuarios no puedan usar ciertas funcionalidades que el HTML permite, tales como
JavaScript, CSS y XML. Se consigue consistencia en la visualización, así como seguridad extra para el usuario. En muchas inserciones de wiki, un hipervínculo es exactamente tal como se muestra, al contrario que en HTML.

Estándar

Durante años el estándar
de facto fue la sintaxis del WikiWikiWeb original. Actualmente las instrucciones de formateo son diferentes dependiendo del motor del wiki. Los wikis simples permiten sólo formateo de texto básico, mientras que otros más complejos tienen soporte para tablas, imágenes, fórmulas, e incluso otros elementos más interactivos tales como encuestas y juegos. Debido a la dificultad de usar varias sintaxis se están haciendo esfuerzos para definir un estándar de marcado (ver esfuerzos de Meatball y Tikiwiki).

Vincular y crear páginas

Los wikis son un auténtico medio de
hipertexto, con estructuras de navegación no lineal. Cada página contiene un gran número de vínculos a otras páginas. En grandes wikis existen las páginas de navegación jerárquica, normalmente como consecuencia del proceso de creación original, pero no es necesario usarlas. Los vínculos se usan con una sintaxis específica, el "patrón de vínculos".

CamelCase

Originalmente la mayoría de wikis usaban
CamelCase como patrón de vínculos, poniendo frases sin espacios y con la primera letra de cada palabra en mayúscula (como por ejemplo la palabra "CamelCase"). Este método es muy fácil, pero hace que los links se escriban de una manera que se desvía de la escritura estándar. Los wikis basados en CamelCase se distinguen instantáneamente por los links con nombres como "TablaDeContenidos", "PreguntasFrecuentes".
CamelCase fue muy criticado, y se desarrollaron otras soluciones.

Free Links

Los "free links", usados por primera vez por
Cliki, usan un formato tipo _(vínculo). Por ejemplo, _(Tabla de contenidos), _(Preguntas frecuentes). Otros motores de wiki usan distintos signos de puntuación.

Interwiki

Interwiki permite vínculos entre distintas comunidades wiki.
Las nuevas páginas se crean simplemente creando un vínculo apropiado. Si el vínculo no existe se acostumbra a remarcar como "vínculo roto". Siguiendo el vínculo se abre una página de edición, que permite al usuario introducir el texto para la nueva página wiki. Este mecanismo asegura que raramente se creen páginas huérfanas (las cuales no tienen ningún vínculo apuntando a ellas). Además se mantiene un nivel alto de conectividad.

Búsqueda

La mayoría de wikis permite al menos una búsqueda por títulos, a veces incluso una búsqueda por texto completo. La escalabilidad de la búsqueda depende totalmente del hecho de que el motor del wiki disponga de una base de datos o no: es necesario el acceso a una base de datos indexada para hacer búsquedas rápidas en wikis grandes. En Wikipedia el botón "Ir" permite a los lectores ir directamente a una página que concuerde con los criterios de búsqueda. El motor de
MetaWiki se creó para habilitar búsquedas en múltiples wikis.

Control de cambios

Los wikis suelen ser diseñados con la filosofía de que sea fácil corregir los errores, en vez de que sea difícil cometerlos. Los wikis son muy abiertos, aún así proporcionan maneras de verificar la validez de los últimos cambios al contenido de las páginas. En casi todos los wikis hay una página específica, "Cambios Recientes", que enumera las ediciones más recientes de artículos, o una lista con los cambios hechos durante un periodo de tiempo. Algunos wikis pueden filtrar la lista para deshacer cambios hechos por
vandalismo.
Desde el registro de cambios suele haber otras funciones: el "Historial de Revisión" muestra versiones anteriores de la página, y la característica "diff" destaca los cambios entre dos revisiones. Usando el Historial un editor puede ver y restaurar una versión anterior del artículo, y la característica "diff" se puede usar para decidir cuándo eso es necesario. Un usuario normal del wiki puede ver el "diff" de una edición listada en "Cambios Recientes" y, si es una edición inaceptable, consultar el historial y restaurar una versión anterior. Este proceso es más o menos complicado dependiendo del software que use el wiki.
En caso de que las ediciones inaceptables se pasen por alto en "Cambios Recientes", algunos motores de wiki proporcionan control de contenido adicional. Se pueden monitorizar para asegurar que una página o un conjunto de páginas mantienen la calidad. Una persona dispuesta a mantener esas páginas será avisada en caso de modificaciones, permitiéndole verificar rápidamente la validez de las nuevas ediciones
.