terça-feira, 1 de dezembro de 2009

Padrão Scorm

O termo e-Learning é uma combinação ocorrida entre o ensino com auxílio da tecnologia e a educação a distância. Ambas modalidades convergiram para a educação on-line e para o treinamento baseado em Web, que ao final resultou no e-Learning.

Sua chegada repentina adicionou novos significados para o treinamento e fez explodir as possibilidades para difusão do conhecimento e da informação para os estudantes e, em um compasso acelerado, abriu um novo mundo para a distribuição e o compartilhamento de conhecimento, tornando-se também uma forma de democratizar o saber para as camadas da população com acesso às novas tecnologias, propiciando a estas que o conhecimento esteja disponível a qualquer tempo e hora e em qualquer lugar.

A fim de apoiar o processo, foram desenvolvidos os LMS’s (Learning Management System), sistemas de gestão de ensino e aprendizagem na web. Softwares projetados para atuarem como salas de aula virtuais, gerando várias possibilidades de interações entre os seus participantes. Com o desenvolvimento da tecnologia na web, os processos de interação em tempo real passaram a ser uma realidade, permitindo com que o aluno tenha contato com o conhecimento, com o professor e com outros alunos, por meio de uma sala de aula virtual.

A interatividade disponibilizada pelas redes de Internet, intranet, e pelos ambientes de gestão, onde se situa o e-learning, passa a ser encarada como um meio de comunicação entre aprendizes, orientadores e estes com o meio. Partindo dessa premissa, é capaz de proporcionar interação nos seguintes níveis:

Ä Aprendiz/Orientador;

Ä Aprendiz/Conteúdo;

Ä Aprendiz/Aprendiz;

Ä Aprendiz/Ambiente.

Uma definição simples para e-learning seria o processo pelo qual o aluno aprende através de conteúdos colocados no computador e/ou Internet e em que o professor, se existir, está à distância utilizando a Internet como meio de comunicação (síncrono ou assíncrono) podendo existir sessões presenciais intermédias. O sistema que inclui aulas presenciais no sistema de e-learning recebe o nome de blended learning.

Contato humano

Muitas criticas têm sido feitas ao e-learning quanto à ausência do contato humano direto e as deficiências geradas por tal fato. Defensores do e-learning argumentam, entanto, que a aprendizagem baseada em tecnologia compensa a falta do contato humano direto com a criação de comunidades virtuais que interagem através de chats, fóruns, emails, etc, enriquecendo o processo relacional de pessoas com o mesmo interesse, mas com diferentes visões e localizadas em distintas regiões ou países.

Vantagens do e-learning

- Rápida atualização dos conteúdos.

- Personalização dos conteúdos transmitidos.

- Facilidade de acesso e flexibilidade de horários.

- O ritmo de aprendizagem pode ser definido pelo próprio utilizador/formando.

- Disponibilidade permanente dos conteúdos da formação.

- Custos menores quando comparados à formação convencional.

- Redução do tempo necessário para o formando.

- Possibilidade de formação de um grande número de pessoas ao mesmo tempo.

- Diversificação da oferta de cursos.

Desvantagens do e-learning

- A tecnofobia ainda está presente em significativa parcela da população.

- Necessidade de maior esforço para motivação dos alunos.

- Exigência de maior disciplina e auto-organização por parte do aluno.

- A criação e a preparação do curso on-line é, geralmente, mais demorada do que a da formação.

- Não gera a possibilidade da existência de cumplicidades e vínculos relacionais, que somente o processo de interação presencial permite.

- O custo de implementação da estrutura para o desenvolvimento programa de E-learning é alto.

- Dificuldades técnicas relativas à Internet e à velocidade de transmissão de imagens e vídeos.

- Limitações no desenvolvimento da socialização do aluno.

- Limitações em alcançar objetivos na área afetiva e de atitudes, pelo empobrecimento da troca direta de experiência entre professor e aluno.

Padrão Scorm:

Objetos de Aprendizagem (OA)

Objeto de Aprendizagem é um recurso digital que pode ser utilizado como auxílio ao processo de ensino-aprendizagem, e que tem a capacidade de ser reutilizado em vários contextos de maneira a facilitar a apropriação do conhecimento.

Desta forma, os OAs devem ser projetados de forma a integrar-se com outros semelhantes e que esta junção possibilite a criação de contextos maiores. Ou seja, eles são módulos que tem o objetivo de se ligarem e possibilitar a construção do conhecimento. É necessário que haja características de padronização que permitam esta integração. As características são as seguintes: reusabilidade; autonomia; interatividade; interoperabilidade e; facilidade de busca. Para que as características sejam contempladas, o desenvolvimento precisa seguir uma padronização de parâmetros no desenvolvimento de OAs. A adoção de padrões possibilita a uniformização na produção de elementos (OAs) com características unificadas e simplificadas segundo um modelo pré-estabelecido, desde que construídos seguindo as normatizações definidas pelo padrão adotado. Os objetos de aprendizagem devem ser desenvolvidos de maneira a prover compatibilidade com outros objetos.

Atualmente existem diversas especificações que normatizam o desenvolvimento dos objetos. Entre as principais especificações podemos destacar o Instructional Managment System (IMS) Learning Design, o Sharable Content Objetct Reference Model (SCORM) e o Aviation Industry CBT (Computer-Based Training) Committe (AICC).

O SCORM incorpora diversas especificações de objetos de aprendizagem e, desta forma, torna-se compatível com diversos Sistemas de gerencia de aprendizagens (LMS). O padrão SCORM é uma junção de características das especificações de objetos de aprendizagem realizadas por outras entidades – AICC e IMS entre outras - resultando em um padrão abrangente. O conjunto de especificações do SCORM descreve como o conteúdo do OA é criado e encapsulado, como ele é apresentado para um aluno e como avalia a sua evolução. Estas descrições estão colocadas em três diferentes publicações que compõe o padrão SCORM na sua última versão SCORM 2004, Que são: a) Modelo de Agregação de Conteúdo; b) Ambiente de Execução e; c) Seqüenciamento e Navegação. Há que se observar que o padrão SCORM é direcionado para o conteúdo do OA e na maneira como ele deve ser criado de modo a ser automatizado. Porém, não se aprofunda em outras questões do ensino, ficando restrito à interação direta do aluno com o OA.

O SCORM também descreve métodos para conduzir as comunicações entre o curso e o ambiente de gerenciamento de aprendizagem. Isso é referido como o ambiente de execução do SCORM, que inclui comunicações sobre a situação do curso, ou seja, quais materiais estão sendo apresentados para o estudante, assim como informações sobre o progresso do aluno durante o curso. O ambiente de execução do SCORM é derivado do modelo de execução do AICC. A padronização dessas comunicações minimiza os problemas associados com a migração de cursos entre ambientes de gerenciamento de aprendizagem, uma vez que tradicionalmente cada ambiente utiliza sua própria forma de rastreamento e gravação do progresso do aluno durante um curso. Essencialmente, o ambiente de execução do SCORM é implementado através de oito comandos especiais que comunicam-se com o ambiente de gerenciamento de aprendizagem usando javascript inserido nas páginas web do curso. No SCORM, o ambiente de gerenciamento de aprendizagem é responsável pelo controle da distribuição dos objetos de aprendizagem aos estudantes, ou seja, tem a habilidade de determinar o que e quando deve ser entregue e rastrear o progresso do estudante durante o curso.

O SCORM tem como objetivos:

- Padronizar a comunicação entre conteúdos (cursos) e LMS.

- Reutilizar os objetos de aprendizagem, permitindo que os conteúdos sejam reutilizados em contextos diferentes. Isto é, o mesmo conteúdo pode ser utilizado em vários contextos, como por exemplo, um mesmo conteúdo pode ser usado em diferentes disciplinas ou organizado de forma diferente para um novo grupo de alunos.

- Permitir que os objetos de aprendizagem sejam independentes da plataforma de e-learning. Os pacotes SCORM podem ser alocados em ambientes de e-learning de várias empresas diferentes, ou seja, você não fica preso ao seu atual fornecedor.

Cibernética

Cibernética (do grego Κυβερνήτης significando condutor, governador, piloto) é uma tentativa de compreender a comunicação e o controle de máquinas, seres vivos e grupos sociais através de analogias com as máquinas cibernéticas (homeostatos, servomecanismos, etc.).

Estas analogias tornam-se possíveis, na Cibernética, por esta estudar o tratamento da informação no interior destes processos como codificação e descodificação, retroação ou realimentação (feedback), aprendizagem, etc. Segundo Wiener (1968), do ponto de vista da transmissão da informação, a distinção entre máquinas e seres vivos, humanos ou não, é mera questão de semântica.

O estudo destes autômatos trouxe inferências para diversos campos da ciência. A introdução da idéia de retroação por Norbert Wiener rompe com a causalidade linear e aponta para a idéia de círculo causal onde A age sobre B que em retorno age sobre A. Tal mecanismo é denominado regulação e permite a autonomia de um sistema (seja um organismo, uma máquina, um grupo social). Será sobre essa base que Wiener discutirá a noção de aprendizagem.

É comum a confusão entre cibernética e robótica, em parte devido ao termo ciborgue (termo que pretendia significar CYBernetic ORGanism = Cyborg).

A cibernética foi estudada em diversos países tanto para o planejamento de suas economias como para o desenvolvimento de maquinarias bélicas e industriais, como foram os casos da antiga URSS (onde se preocuparam com a gestão e controle da economia soviética propondo as perguntas: Quem produz? Quanto produz? Para quem produz?), da França, dos EUA e do Chile (GEROVITCH, 2003; MEDINA, 2006).

Cibernética e administração

A cibernética é a ciência da comunicação e do controle, seja nos seres vivos, ou seja nas máquinas. A comunicação é que torna os sistemas integrados e coerentes e o controle é que regula o seu comportamento. A cibernética compreende os processos físicos, fisiológico, psicológicos etc. de transformação da informação.

A cibernética é uma teoria dos sistemas de controle baseada na comunicação entre os sistemas e o meio/ambiente e dentro do próprio sistema.

As empresas são sistemas excessivamente complexos (extremamente complicados e não podem ser descritos de forma precisa e detalhada), probabilísticos (é aquele para o qual não poderá ser fornecida uma previsão detalhada) e regulamentados que funciona como organismos vivos, que desenvolvem técnicas de sobrevivência num ambiente interno e externo em alteração continua.

Na cibernética procura-se representar os sistemas originais através de outros sistemas comparáveis, que são denominados modelos. Um modelo provisório que o representa, para facilitar o tratamento das entidades evolvidas no estudo, pois a manipulação de entidades (pessoas e organização) é socialmente inaceitável ou legalmente proibida.

No caso da administração, por exemplo, a cibernética pode envolver estudos sobre: pessoas, áreas, departamentos, unidades de negócios, empresas, grupos empresariais, etc.

A cibernética também está associada ao uso de sistemas de comunicação e conseqüentemente aos seus componentes, que são vitais para troca de informações da organização com o ambiente e dentro dela mesma.

As principais conseqüências da cibernética na administração

Com a mecanização que se iniciou com a Revolução Industrial, o esforço muscular do homem passou para a máquina. Porém com a automação provocada pela Cibernética, muitas tarefas que cabiam ao cérebro humano passaram para a máquina.

A Cibernética está levando a uma substituição do cérebro humano. O computador tende a substituir o homem em uma gama crescente de atividades, e com grande vantagem. As principais conseqüências da Cibernética na administração são duas: a automação e a informática.

Automação: Ultra-mecanização, super-racionalização, processamentos contínuos e controle automático nas indústrias, nos comércios e nos serviços bancários. Com a automação surgiram as fábricas autogeridas: algumas indústrias químicas, como as refinarias de petróleo, apresentam uma automação quase total. O mesmo ocorre em organização cujas atividades ou operações são relativamente estáveis e cíclicas, como as centrais elétricas, ferrovias, metrôs, etc. Os autômatos, em cibernética, são máquinas ou engenhos que contém dispositivos capazes de tratar informações que recebem do meio exterior e produzir ações.

Informática: Tratamento racional e sistemático da informação por meios automáticos, associado ao uso dos computadores. Embora não se deva confundir a informática com computadores, na verdade ela existe porque existem os computadores. Na realidade, a informática é a parte da cibernética que trata da relação entre coisas e suas características, de maneira a representá-las por meio de suportes de informação, trata ainda, da forma de manipular esses suportes, em vez de manipular as próprias coisas. A informática é um dos fundamentos da teoria e dos métodos que fornecem as regras para o tratamento da informação. O processamento de informação levou ao surgimento do computador eletrônico, o qual deu início a era da informática. É uma ferramenta a disposição das empresas e pessoas, mas sua não utilização ou seu desconhecimento pode ser a diferença entre o sucesso e fracasso em qualquer atividade.

Biônica

A biônica é a ciência que estuda determinados processos biológicos dos seres vivos (mecanismos mecânicos e electrónicos) a fim de aplicar processos análogos à técnica e à indústria (implantes artificiais ou a sistemas industriais).

Biônica é a investigação, sistemática, das soluções orgânicas e estruturais aplicadas pela natureza aos seus elementos, visando colher dados para a solução de problemas técnicos de formas, estruturas ou objetos.

História

A Biônica como técnica sistemática para fins científicos e práticos teve seu início na década de 40, durante a Segunda Guerra Mundial.

A partir desta época formaram-se grandes laboratórios, nos países mais avançados, para pesquisar esta fonte poderosa a inesgotável de soluções que é a natureza. A Biônica é, hoje em dia, matéria eminentemente interdisciplinar, utilizada principalmente na Engenharia Aero-espacial, na Medicina de próteses a transplantes, na Cibernética, na Arquitetura a no Projeto de Produto (neste caso, também conhecido como Biodesign).

Na verdade, o homem já utilizava instintivamente esta técnica desde os primórdios da sua evolução. Certos inventos como o Machado de Pedra, servindo de extensão do ante-braço com o punho cerrado, a Canoa Monóxila que nada mais é do que um tronco flutuante escavado para acomodar pessoas ou os abrigos construídos com galhos e folhas trançadas, mostram a incrível capacidade que o homem tem de problematizar a encontrar soluções baseadas nas sugestões oferecidas pelo seu meio ambiente natural.

Aplicações

O exemplo de gotas de água na superfície de uma folha.

Um exemplo de aplicação da biônica é o velcro, que se baseia no carrapicho. Também certas folhas e gotas de água.

A Computação está nas nuvens

Um dos termos mais na moda atualmente em relação à infra-estrutura de computadores é o “Cloud Computing”, que em bom português pode ser traduzido como “Computação em Nuvem”.

Para explicar melhor este conceito, vale à pena rever primeiro algumas outras idéias, para um melhor entendimento. Primeiro, a indústria da tecnologia da informação, que já foi chamada de processamento de dados, tem “ondas” de tendências, e isso é valido especialmente quando se fala no segmento corporativo.

Quando o mundo viu o advento da computação, a idéia era concentrar o processamento em grandes (e caríssimos) computadores, os chamados “mainframes”, acessados por terminais com pouco ou nenhum poder de processamento e armazenamento.

Isso era considerado uma verdade quase absoluta pelos líderes de mercado em meados do século 20. Prova disso são frases como “I think there is a world market for maybe five computers" (“Acho que há mercado mundial para talvez cinco computadores”), dita em 1943 pelo então presidente do conselho de administração da IBM, Thomas Watson, e "There is no reason anyone would want a computer in their home" (“Não há nenhuma razão pela qual alguém vá querer um computador na sua casa”) dita em 1977 pelo fundador da DEC, Ken Olson.

A História mostra que os inovadores como Steve Jobs, um dos fundadores e atual CEO da Apple, questionaram os líderes de mercado (para o bem da humanidade) e o mundo assistiu ao surgimento do Computador Pessoal, o famoso PC (do inglês “Personal Computer”) no final dos anos de 1970.

Durante a década de 1980 o Computador Pessoal se consolidou como ferramenta de trabalho principalmente nas empresas e, ao mesmo tempo, foram criados servidores menores baseados na mesma arquitetura do PC e com configurações mais robustas.

Assim, nos anos de 1990 vemos o surgimento de uma nova tendência, o “downsizing” de servidores, já que a adoção da arquitetura PC representava uma opção mais barata, mais flexível e com melhor relação custo x benefício em relação aos mainframes.

Com o “downsizing”, os PCs passaram a ser conectados em rede a servidores que não tinham tanto poder de processamento e, para que os sistemas funcionassem adequadamente, o processamento era distribuído entre a máquina que acessava o sistema e o servidor, o que se convencionou chamar de “arquitetura cliente-servidor”.

Isso não significou o fim dos mainframes, que continuam sendo utilizados até hoje no segmento financeiro e em grandes organizações, mas sem dúvida barateou o acesso à tecnologia e facilitou sua adoção em larga escala, principalmente nas empresas.

A partir dos anos de 1990 também vemos a expansão da Internet, que se consolidou a partir do ano 2000, além de computadores pessoais e servidores cada dia mais potentes.

Com isso passamos a ter mais recursos computacionais e bandas de comunicação disponíveis, possibilitando a troca de dados e informações entre computadores, em volume e velocidade crescentes. Assim, grande parte dos sistemas que antes compartilhavam recursos entre os servidores e as máquinas que os acessavam (“cliente-servidor”), passam a ser acessados exclusivamente pela internet (web), sendo 100% processados nos servidores.

Outros dois fenômenos que ocorrem nessa época são a Globalização, que ampliou a concorrência entre as empresas em nível mundial, e o conceito de “TI Verde”, que surgiu a partir de uma conscientização sobre as mudanças climáticas e o aquecimento global.

Em resumo, o cenário atual mostra o seguinte: em tempos de globalização, a internet é algo fundamental e a cada dia temos possibilidade de trafegar mais informações e com velocidade crescente; os computadores estão cada vez mais potentes, mas com baixa eficiência energética; a maior parte dos servidores em uso possui uma capacidade ociosa não utilizada; com a concorrência trazida pela globalização, é necessário que as empresas racionalizem seus custos; e as áreas de TI não ficam imunes a isso.

A partir dessas questões, surge o conceito de “virtualização” de servidores, que visa aproveitar melhor os recursos computacionais disponíveis. A partir da adoção de softwares como VMWare ou Xen, um único servidor físico passa a conter vários servidores virtuais compartilhando os recursos da máquina. Para os usuários, esses servidores virtuais são vistos como máquinas físicas. Para os gestores, causa um aumento da eficiência energética dos computadores com uma racionalização de custos, e ainda por cima colaborando com a natureza. Fantástico!

Porém, algumas aplicações podem demandar mais do que um único servidor físico, ou servidores muito grandes cujo custo pode ser proibitivo. Quando isso acontece, é necessário consolidar a infra-estrutura unindo vários servidores em clusters ou grids, ou então partir para servidores mainframe, cujo custo é inacessível para a grande maioria das empresas.

A consolidação pura de servidores físicos é algo complicado de implantar, porém quando se expande o conceito de virtualização para um conjunto de servidores, a coisa muda, pois foram disponibilizadas ferramentas para tal. Pode-se criar um conjunto de servidores atuando em conjunto, o que se chama de cluster, com uma solução de armazenamento de dados centralizada, integrada aos mesmos (storage).

Vejam que esse conjunto de servidores mais a solução de armazenamento podem gerar vários servidores virtuais, cuja operação também é transparente para o usuário, que os acessará da mesma forma que faria com servidores físicos. E, para dar suporte a esse conjunto de equipamentos, os já mencionados softwares VMWare e Xen, entre outros, foram expandidos para dar suporte a esse tipo de configuração.

E é aqui que chegamos ao primeiro degrau do conceito de Cloud Computing. Por analogia, essa solução virtualizada de servidores e armazenamento pode ser considerada uma “nuvem” de recursos. Aliás, a própria internet é freqüentemente representada como uma nuvem, pois acessamos vários recursos, páginas, etc., sem sabermos onde estão e nem como funcionam.

Pois bem, nesse primeiro estágio do Cloud Computing, os gestores de TI passam a contar com uma nuvem de recursos que são configurados de acordo com a necessidade da empresa, com benefícios tais como:

- Redução do espaço ocupado por servidores físicos;
- Redução do consumo de energia, pois há menos equipamentos;
- Redução dos custos com ar-condicionado, pois com menos equipamentos há menor dissipação de calor;
- Redução da complexidade do ambiente dos servidores, com menos cabos, tomadas, etc., facilitando a sua gestão e operação;
- Aumento da disponibilidade dos servidores, pois se algum servidor físico falhar, o software que gerencia a configuração faz o balanço de carga de processamento com os demais que fazem parte da nuvem, até que o problema seja solucionado.

Mas será que Cloud Computing é só isso, algo ligado apenas ao segmento corporativo? Na verdade, nem os próprios especialistas ainda sabem direito como definir esse conceito, porém há um consenso geral de que ele irá mais além do que simplesmente a virtualização de computadores, atingindo um público muito maior do que o corporativo.

Espera-se que o aumento de capacidade computacional dos servidores e principalmente o aumento da oferta de banda de comunicação continuem de forma constante. Assim, o poder computacional dos computadores pessoais não precisará mais ser tão grande, já que tudo poderá ser acessado on-line e, dessa forma, o processamento e o armazenamento de dados ficarão na nuvem de servidores e dispositivos de armazenamento que estarão na internet.

Juntamente com isso, espera-ser que cada vez mais os aplicativos (softwares) sejam migrados para a internet, dispensando a sua instalação nos PCs. Assim, a tendência é que os computadores pessoais sejam cada vez mais simples, leves e práticos de usar, com recursos mais voltados à conectividade em rede do que para o processamento e o armazenamento local.

Empresas como o Google, a IBM, a Oracle, Locaweb, entre tantas outras estão trabalhando nas suas soluções de Cloud Computing, seja para consumo interno ou para venda, e em diferentes estágios de adoção. Alguns estão focando no momento apenas a infra-estrutura de servidores, outros já estão pensando além.

Um exemplo de um “próximo passo” foi dado pelo Google, ao disponibilizar um conjunto de aplicativos para escritório na internet, o “Google Docs”. Esse pacote de software é acessado 100% via internet e permite a criação e edição de documentos, planilhas, apresentações, etc., que inclusive podem ser armazenados no próprio espaço disponibilizado pelo Google para cada usuário. Para acessar esse sistema não é necessário instalar nada, basta um computador conectado à internet.

Vejam que, tal qual o ditado, o “mundo da TI também dá voltas”. Se nos lembrarmos que no início dos tempos dos computadores o conceito vigente era de um grande servidor acessado por terminais com pouco ou nenhum poder de processamento e armazenamento, hoje percebemos uma volta a esse cenário.

Porém, ao invés de um único grande computador restrito ao ambiente de uma organização, teremos algo em escala global, com nuvens de servidores em vários locais trabalhando em rede para executar diversos softwares que poderão ser acessados on-line, formando uma grande nuvem que será a internet do futuro.