terça-feira, 1 de dezembro de 2009

Padrão Scorm

O termo e-Learning é uma combinação ocorrida entre o ensino com auxílio da tecnologia e a educação a distância. Ambas modalidades convergiram para a educação on-line e para o treinamento baseado em Web, que ao final resultou no e-Learning.

Sua chegada repentina adicionou novos significados para o treinamento e fez explodir as possibilidades para difusão do conhecimento e da informação para os estudantes e, em um compasso acelerado, abriu um novo mundo para a distribuição e o compartilhamento de conhecimento, tornando-se também uma forma de democratizar o saber para as camadas da população com acesso às novas tecnologias, propiciando a estas que o conhecimento esteja disponível a qualquer tempo e hora e em qualquer lugar.

A fim de apoiar o processo, foram desenvolvidos os LMS’s (Learning Management System), sistemas de gestão de ensino e aprendizagem na web. Softwares projetados para atuarem como salas de aula virtuais, gerando várias possibilidades de interações entre os seus participantes. Com o desenvolvimento da tecnologia na web, os processos de interação em tempo real passaram a ser uma realidade, permitindo com que o aluno tenha contato com o conhecimento, com o professor e com outros alunos, por meio de uma sala de aula virtual.

A interatividade disponibilizada pelas redes de Internet, intranet, e pelos ambientes de gestão, onde se situa o e-learning, passa a ser encarada como um meio de comunicação entre aprendizes, orientadores e estes com o meio. Partindo dessa premissa, é capaz de proporcionar interação nos seguintes níveis:

Ä Aprendiz/Orientador;

Ä Aprendiz/Conteúdo;

Ä Aprendiz/Aprendiz;

Ä Aprendiz/Ambiente.

Uma definição simples para e-learning seria o processo pelo qual o aluno aprende através de conteúdos colocados no computador e/ou Internet e em que o professor, se existir, está à distância utilizando a Internet como meio de comunicação (síncrono ou assíncrono) podendo existir sessões presenciais intermédias. O sistema que inclui aulas presenciais no sistema de e-learning recebe o nome de blended learning.

Contato humano

Muitas criticas têm sido feitas ao e-learning quanto à ausência do contato humano direto e as deficiências geradas por tal fato. Defensores do e-learning argumentam, entanto, que a aprendizagem baseada em tecnologia compensa a falta do contato humano direto com a criação de comunidades virtuais que interagem através de chats, fóruns, emails, etc, enriquecendo o processo relacional de pessoas com o mesmo interesse, mas com diferentes visões e localizadas em distintas regiões ou países.

Vantagens do e-learning

- Rápida atualização dos conteúdos.

- Personalização dos conteúdos transmitidos.

- Facilidade de acesso e flexibilidade de horários.

- O ritmo de aprendizagem pode ser definido pelo próprio utilizador/formando.

- Disponibilidade permanente dos conteúdos da formação.

- Custos menores quando comparados à formação convencional.

- Redução do tempo necessário para o formando.

- Possibilidade de formação de um grande número de pessoas ao mesmo tempo.

- Diversificação da oferta de cursos.

Desvantagens do e-learning

- A tecnofobia ainda está presente em significativa parcela da população.

- Necessidade de maior esforço para motivação dos alunos.

- Exigência de maior disciplina e auto-organização por parte do aluno.

- A criação e a preparação do curso on-line é, geralmente, mais demorada do que a da formação.

- Não gera a possibilidade da existência de cumplicidades e vínculos relacionais, que somente o processo de interação presencial permite.

- O custo de implementação da estrutura para o desenvolvimento programa de E-learning é alto.

- Dificuldades técnicas relativas à Internet e à velocidade de transmissão de imagens e vídeos.

- Limitações no desenvolvimento da socialização do aluno.

- Limitações em alcançar objetivos na área afetiva e de atitudes, pelo empobrecimento da troca direta de experiência entre professor e aluno.

Padrão Scorm:

Objetos de Aprendizagem (OA)

Objeto de Aprendizagem é um recurso digital que pode ser utilizado como auxílio ao processo de ensino-aprendizagem, e que tem a capacidade de ser reutilizado em vários contextos de maneira a facilitar a apropriação do conhecimento.

Desta forma, os OAs devem ser projetados de forma a integrar-se com outros semelhantes e que esta junção possibilite a criação de contextos maiores. Ou seja, eles são módulos que tem o objetivo de se ligarem e possibilitar a construção do conhecimento. É necessário que haja características de padronização que permitam esta integração. As características são as seguintes: reusabilidade; autonomia; interatividade; interoperabilidade e; facilidade de busca. Para que as características sejam contempladas, o desenvolvimento precisa seguir uma padronização de parâmetros no desenvolvimento de OAs. A adoção de padrões possibilita a uniformização na produção de elementos (OAs) com características unificadas e simplificadas segundo um modelo pré-estabelecido, desde que construídos seguindo as normatizações definidas pelo padrão adotado. Os objetos de aprendizagem devem ser desenvolvidos de maneira a prover compatibilidade com outros objetos.

Atualmente existem diversas especificações que normatizam o desenvolvimento dos objetos. Entre as principais especificações podemos destacar o Instructional Managment System (IMS) Learning Design, o Sharable Content Objetct Reference Model (SCORM) e o Aviation Industry CBT (Computer-Based Training) Committe (AICC).

O SCORM incorpora diversas especificações de objetos de aprendizagem e, desta forma, torna-se compatível com diversos Sistemas de gerencia de aprendizagens (LMS). O padrão SCORM é uma junção de características das especificações de objetos de aprendizagem realizadas por outras entidades – AICC e IMS entre outras - resultando em um padrão abrangente. O conjunto de especificações do SCORM descreve como o conteúdo do OA é criado e encapsulado, como ele é apresentado para um aluno e como avalia a sua evolução. Estas descrições estão colocadas em três diferentes publicações que compõe o padrão SCORM na sua última versão SCORM 2004, Que são: a) Modelo de Agregação de Conteúdo; b) Ambiente de Execução e; c) Seqüenciamento e Navegação. Há que se observar que o padrão SCORM é direcionado para o conteúdo do OA e na maneira como ele deve ser criado de modo a ser automatizado. Porém, não se aprofunda em outras questões do ensino, ficando restrito à interação direta do aluno com o OA.

O SCORM também descreve métodos para conduzir as comunicações entre o curso e o ambiente de gerenciamento de aprendizagem. Isso é referido como o ambiente de execução do SCORM, que inclui comunicações sobre a situação do curso, ou seja, quais materiais estão sendo apresentados para o estudante, assim como informações sobre o progresso do aluno durante o curso. O ambiente de execução do SCORM é derivado do modelo de execução do AICC. A padronização dessas comunicações minimiza os problemas associados com a migração de cursos entre ambientes de gerenciamento de aprendizagem, uma vez que tradicionalmente cada ambiente utiliza sua própria forma de rastreamento e gravação do progresso do aluno durante um curso. Essencialmente, o ambiente de execução do SCORM é implementado através de oito comandos especiais que comunicam-se com o ambiente de gerenciamento de aprendizagem usando javascript inserido nas páginas web do curso. No SCORM, o ambiente de gerenciamento de aprendizagem é responsável pelo controle da distribuição dos objetos de aprendizagem aos estudantes, ou seja, tem a habilidade de determinar o que e quando deve ser entregue e rastrear o progresso do estudante durante o curso.

O SCORM tem como objetivos:

- Padronizar a comunicação entre conteúdos (cursos) e LMS.

- Reutilizar os objetos de aprendizagem, permitindo que os conteúdos sejam reutilizados em contextos diferentes. Isto é, o mesmo conteúdo pode ser utilizado em vários contextos, como por exemplo, um mesmo conteúdo pode ser usado em diferentes disciplinas ou organizado de forma diferente para um novo grupo de alunos.

- Permitir que os objetos de aprendizagem sejam independentes da plataforma de e-learning. Os pacotes SCORM podem ser alocados em ambientes de e-learning de várias empresas diferentes, ou seja, você não fica preso ao seu atual fornecedor.

Cibernética

Cibernética (do grego Κυβερνήτης significando condutor, governador, piloto) é uma tentativa de compreender a comunicação e o controle de máquinas, seres vivos e grupos sociais através de analogias com as máquinas cibernéticas (homeostatos, servomecanismos, etc.).

Estas analogias tornam-se possíveis, na Cibernética, por esta estudar o tratamento da informação no interior destes processos como codificação e descodificação, retroação ou realimentação (feedback), aprendizagem, etc. Segundo Wiener (1968), do ponto de vista da transmissão da informação, a distinção entre máquinas e seres vivos, humanos ou não, é mera questão de semântica.

O estudo destes autômatos trouxe inferências para diversos campos da ciência. A introdução da idéia de retroação por Norbert Wiener rompe com a causalidade linear e aponta para a idéia de círculo causal onde A age sobre B que em retorno age sobre A. Tal mecanismo é denominado regulação e permite a autonomia de um sistema (seja um organismo, uma máquina, um grupo social). Será sobre essa base que Wiener discutirá a noção de aprendizagem.

É comum a confusão entre cibernética e robótica, em parte devido ao termo ciborgue (termo que pretendia significar CYBernetic ORGanism = Cyborg).

A cibernética foi estudada em diversos países tanto para o planejamento de suas economias como para o desenvolvimento de maquinarias bélicas e industriais, como foram os casos da antiga URSS (onde se preocuparam com a gestão e controle da economia soviética propondo as perguntas: Quem produz? Quanto produz? Para quem produz?), da França, dos EUA e do Chile (GEROVITCH, 2003; MEDINA, 2006).

Cibernética e administração

A cibernética é a ciência da comunicação e do controle, seja nos seres vivos, ou seja nas máquinas. A comunicação é que torna os sistemas integrados e coerentes e o controle é que regula o seu comportamento. A cibernética compreende os processos físicos, fisiológico, psicológicos etc. de transformação da informação.

A cibernética é uma teoria dos sistemas de controle baseada na comunicação entre os sistemas e o meio/ambiente e dentro do próprio sistema.

As empresas são sistemas excessivamente complexos (extremamente complicados e não podem ser descritos de forma precisa e detalhada), probabilísticos (é aquele para o qual não poderá ser fornecida uma previsão detalhada) e regulamentados que funciona como organismos vivos, que desenvolvem técnicas de sobrevivência num ambiente interno e externo em alteração continua.

Na cibernética procura-se representar os sistemas originais através de outros sistemas comparáveis, que são denominados modelos. Um modelo provisório que o representa, para facilitar o tratamento das entidades evolvidas no estudo, pois a manipulação de entidades (pessoas e organização) é socialmente inaceitável ou legalmente proibida.

No caso da administração, por exemplo, a cibernética pode envolver estudos sobre: pessoas, áreas, departamentos, unidades de negócios, empresas, grupos empresariais, etc.

A cibernética também está associada ao uso de sistemas de comunicação e conseqüentemente aos seus componentes, que são vitais para troca de informações da organização com o ambiente e dentro dela mesma.

As principais conseqüências da cibernética na administração

Com a mecanização que se iniciou com a Revolução Industrial, o esforço muscular do homem passou para a máquina. Porém com a automação provocada pela Cibernética, muitas tarefas que cabiam ao cérebro humano passaram para a máquina.

A Cibernética está levando a uma substituição do cérebro humano. O computador tende a substituir o homem em uma gama crescente de atividades, e com grande vantagem. As principais conseqüências da Cibernética na administração são duas: a automação e a informática.

Automação: Ultra-mecanização, super-racionalização, processamentos contínuos e controle automático nas indústrias, nos comércios e nos serviços bancários. Com a automação surgiram as fábricas autogeridas: algumas indústrias químicas, como as refinarias de petróleo, apresentam uma automação quase total. O mesmo ocorre em organização cujas atividades ou operações são relativamente estáveis e cíclicas, como as centrais elétricas, ferrovias, metrôs, etc. Os autômatos, em cibernética, são máquinas ou engenhos que contém dispositivos capazes de tratar informações que recebem do meio exterior e produzir ações.

Informática: Tratamento racional e sistemático da informação por meios automáticos, associado ao uso dos computadores. Embora não se deva confundir a informática com computadores, na verdade ela existe porque existem os computadores. Na realidade, a informática é a parte da cibernética que trata da relação entre coisas e suas características, de maneira a representá-las por meio de suportes de informação, trata ainda, da forma de manipular esses suportes, em vez de manipular as próprias coisas. A informática é um dos fundamentos da teoria e dos métodos que fornecem as regras para o tratamento da informação. O processamento de informação levou ao surgimento do computador eletrônico, o qual deu início a era da informática. É uma ferramenta a disposição das empresas e pessoas, mas sua não utilização ou seu desconhecimento pode ser a diferença entre o sucesso e fracasso em qualquer atividade.

Biônica

A biônica é a ciência que estuda determinados processos biológicos dos seres vivos (mecanismos mecânicos e electrónicos) a fim de aplicar processos análogos à técnica e à indústria (implantes artificiais ou a sistemas industriais).

Biônica é a investigação, sistemática, das soluções orgânicas e estruturais aplicadas pela natureza aos seus elementos, visando colher dados para a solução de problemas técnicos de formas, estruturas ou objetos.

História

A Biônica como técnica sistemática para fins científicos e práticos teve seu início na década de 40, durante a Segunda Guerra Mundial.

A partir desta época formaram-se grandes laboratórios, nos países mais avançados, para pesquisar esta fonte poderosa a inesgotável de soluções que é a natureza. A Biônica é, hoje em dia, matéria eminentemente interdisciplinar, utilizada principalmente na Engenharia Aero-espacial, na Medicina de próteses a transplantes, na Cibernética, na Arquitetura a no Projeto de Produto (neste caso, também conhecido como Biodesign).

Na verdade, o homem já utilizava instintivamente esta técnica desde os primórdios da sua evolução. Certos inventos como o Machado de Pedra, servindo de extensão do ante-braço com o punho cerrado, a Canoa Monóxila que nada mais é do que um tronco flutuante escavado para acomodar pessoas ou os abrigos construídos com galhos e folhas trançadas, mostram a incrível capacidade que o homem tem de problematizar a encontrar soluções baseadas nas sugestões oferecidas pelo seu meio ambiente natural.

Aplicações

O exemplo de gotas de água na superfície de uma folha.

Um exemplo de aplicação da biônica é o velcro, que se baseia no carrapicho. Também certas folhas e gotas de água.

A Computação está nas nuvens

Um dos termos mais na moda atualmente em relação à infra-estrutura de computadores é o “Cloud Computing”, que em bom português pode ser traduzido como “Computação em Nuvem”.

Para explicar melhor este conceito, vale à pena rever primeiro algumas outras idéias, para um melhor entendimento. Primeiro, a indústria da tecnologia da informação, que já foi chamada de processamento de dados, tem “ondas” de tendências, e isso é valido especialmente quando se fala no segmento corporativo.

Quando o mundo viu o advento da computação, a idéia era concentrar o processamento em grandes (e caríssimos) computadores, os chamados “mainframes”, acessados por terminais com pouco ou nenhum poder de processamento e armazenamento.

Isso era considerado uma verdade quase absoluta pelos líderes de mercado em meados do século 20. Prova disso são frases como “I think there is a world market for maybe five computers" (“Acho que há mercado mundial para talvez cinco computadores”), dita em 1943 pelo então presidente do conselho de administração da IBM, Thomas Watson, e "There is no reason anyone would want a computer in their home" (“Não há nenhuma razão pela qual alguém vá querer um computador na sua casa”) dita em 1977 pelo fundador da DEC, Ken Olson.

A História mostra que os inovadores como Steve Jobs, um dos fundadores e atual CEO da Apple, questionaram os líderes de mercado (para o bem da humanidade) e o mundo assistiu ao surgimento do Computador Pessoal, o famoso PC (do inglês “Personal Computer”) no final dos anos de 1970.

Durante a década de 1980 o Computador Pessoal se consolidou como ferramenta de trabalho principalmente nas empresas e, ao mesmo tempo, foram criados servidores menores baseados na mesma arquitetura do PC e com configurações mais robustas.

Assim, nos anos de 1990 vemos o surgimento de uma nova tendência, o “downsizing” de servidores, já que a adoção da arquitetura PC representava uma opção mais barata, mais flexível e com melhor relação custo x benefício em relação aos mainframes.

Com o “downsizing”, os PCs passaram a ser conectados em rede a servidores que não tinham tanto poder de processamento e, para que os sistemas funcionassem adequadamente, o processamento era distribuído entre a máquina que acessava o sistema e o servidor, o que se convencionou chamar de “arquitetura cliente-servidor”.

Isso não significou o fim dos mainframes, que continuam sendo utilizados até hoje no segmento financeiro e em grandes organizações, mas sem dúvida barateou o acesso à tecnologia e facilitou sua adoção em larga escala, principalmente nas empresas.

A partir dos anos de 1990 também vemos a expansão da Internet, que se consolidou a partir do ano 2000, além de computadores pessoais e servidores cada dia mais potentes.

Com isso passamos a ter mais recursos computacionais e bandas de comunicação disponíveis, possibilitando a troca de dados e informações entre computadores, em volume e velocidade crescentes. Assim, grande parte dos sistemas que antes compartilhavam recursos entre os servidores e as máquinas que os acessavam (“cliente-servidor”), passam a ser acessados exclusivamente pela internet (web), sendo 100% processados nos servidores.

Outros dois fenômenos que ocorrem nessa época são a Globalização, que ampliou a concorrência entre as empresas em nível mundial, e o conceito de “TI Verde”, que surgiu a partir de uma conscientização sobre as mudanças climáticas e o aquecimento global.

Em resumo, o cenário atual mostra o seguinte: em tempos de globalização, a internet é algo fundamental e a cada dia temos possibilidade de trafegar mais informações e com velocidade crescente; os computadores estão cada vez mais potentes, mas com baixa eficiência energética; a maior parte dos servidores em uso possui uma capacidade ociosa não utilizada; com a concorrência trazida pela globalização, é necessário que as empresas racionalizem seus custos; e as áreas de TI não ficam imunes a isso.

A partir dessas questões, surge o conceito de “virtualização” de servidores, que visa aproveitar melhor os recursos computacionais disponíveis. A partir da adoção de softwares como VMWare ou Xen, um único servidor físico passa a conter vários servidores virtuais compartilhando os recursos da máquina. Para os usuários, esses servidores virtuais são vistos como máquinas físicas. Para os gestores, causa um aumento da eficiência energética dos computadores com uma racionalização de custos, e ainda por cima colaborando com a natureza. Fantástico!

Porém, algumas aplicações podem demandar mais do que um único servidor físico, ou servidores muito grandes cujo custo pode ser proibitivo. Quando isso acontece, é necessário consolidar a infra-estrutura unindo vários servidores em clusters ou grids, ou então partir para servidores mainframe, cujo custo é inacessível para a grande maioria das empresas.

A consolidação pura de servidores físicos é algo complicado de implantar, porém quando se expande o conceito de virtualização para um conjunto de servidores, a coisa muda, pois foram disponibilizadas ferramentas para tal. Pode-se criar um conjunto de servidores atuando em conjunto, o que se chama de cluster, com uma solução de armazenamento de dados centralizada, integrada aos mesmos (storage).

Vejam que esse conjunto de servidores mais a solução de armazenamento podem gerar vários servidores virtuais, cuja operação também é transparente para o usuário, que os acessará da mesma forma que faria com servidores físicos. E, para dar suporte a esse conjunto de equipamentos, os já mencionados softwares VMWare e Xen, entre outros, foram expandidos para dar suporte a esse tipo de configuração.

E é aqui que chegamos ao primeiro degrau do conceito de Cloud Computing. Por analogia, essa solução virtualizada de servidores e armazenamento pode ser considerada uma “nuvem” de recursos. Aliás, a própria internet é freqüentemente representada como uma nuvem, pois acessamos vários recursos, páginas, etc., sem sabermos onde estão e nem como funcionam.

Pois bem, nesse primeiro estágio do Cloud Computing, os gestores de TI passam a contar com uma nuvem de recursos que são configurados de acordo com a necessidade da empresa, com benefícios tais como:

- Redução do espaço ocupado por servidores físicos;
- Redução do consumo de energia, pois há menos equipamentos;
- Redução dos custos com ar-condicionado, pois com menos equipamentos há menor dissipação de calor;
- Redução da complexidade do ambiente dos servidores, com menos cabos, tomadas, etc., facilitando a sua gestão e operação;
- Aumento da disponibilidade dos servidores, pois se algum servidor físico falhar, o software que gerencia a configuração faz o balanço de carga de processamento com os demais que fazem parte da nuvem, até que o problema seja solucionado.

Mas será que Cloud Computing é só isso, algo ligado apenas ao segmento corporativo? Na verdade, nem os próprios especialistas ainda sabem direito como definir esse conceito, porém há um consenso geral de que ele irá mais além do que simplesmente a virtualização de computadores, atingindo um público muito maior do que o corporativo.

Espera-se que o aumento de capacidade computacional dos servidores e principalmente o aumento da oferta de banda de comunicação continuem de forma constante. Assim, o poder computacional dos computadores pessoais não precisará mais ser tão grande, já que tudo poderá ser acessado on-line e, dessa forma, o processamento e o armazenamento de dados ficarão na nuvem de servidores e dispositivos de armazenamento que estarão na internet.

Juntamente com isso, espera-ser que cada vez mais os aplicativos (softwares) sejam migrados para a internet, dispensando a sua instalação nos PCs. Assim, a tendência é que os computadores pessoais sejam cada vez mais simples, leves e práticos de usar, com recursos mais voltados à conectividade em rede do que para o processamento e o armazenamento local.

Empresas como o Google, a IBM, a Oracle, Locaweb, entre tantas outras estão trabalhando nas suas soluções de Cloud Computing, seja para consumo interno ou para venda, e em diferentes estágios de adoção. Alguns estão focando no momento apenas a infra-estrutura de servidores, outros já estão pensando além.

Um exemplo de um “próximo passo” foi dado pelo Google, ao disponibilizar um conjunto de aplicativos para escritório na internet, o “Google Docs”. Esse pacote de software é acessado 100% via internet e permite a criação e edição de documentos, planilhas, apresentações, etc., que inclusive podem ser armazenados no próprio espaço disponibilizado pelo Google para cada usuário. Para acessar esse sistema não é necessário instalar nada, basta um computador conectado à internet.

Vejam que, tal qual o ditado, o “mundo da TI também dá voltas”. Se nos lembrarmos que no início dos tempos dos computadores o conceito vigente era de um grande servidor acessado por terminais com pouco ou nenhum poder de processamento e armazenamento, hoje percebemos uma volta a esse cenário.

Porém, ao invés de um único grande computador restrito ao ambiente de uma organização, teremos algo em escala global, com nuvens de servidores em vários locais trabalhando em rede para executar diversos softwares que poderão ser acessados on-line, formando uma grande nuvem que será a internet do futuro.

sexta-feira, 27 de novembro de 2009

ROBÓTICA

é um ramo da tecnologia que engloba mecânica, eletrônica e computação, que atualmente trata de sistemas compostos pormáquinas e partes mecânicas automáticas e controladas por circuitos integrados, tornando sistemas mecânicos motorizados, controlados manualmente ou automaticamente por circuitos elétricos. As máquinas, pode-se dizer que são vivas, mas ao mesmo tempo são uma imitação da vida não passam de fios unidos e mecanismos, isso tudo junto concebe um robô. Cada vez mais que as pessoas utilizam os robôs para suas tarefas. Em breve, tudo poderá ser controlado por robôs. Os robôs são apenas máquinas: não sonham nem sentem e muito menos ficam cansados. Esta tecnologia, hoje adotada por muitas fábricas e indústrias, tem obtido de um modo geral, êxito em questões levantadas sobre a redução de custos, aumento de produtividade e os vários problemas trabalhistas com funcionários. O termo Robótica foi pela primeira vez usado pelo Checo Karel Capek (1890-1938) numa Peça de Teatro - R.U.R. (Rossum's Universal Robots) - estreada em Janeiro de 1911 (Praga). Foi mais tarde popularizado pelo escritor de Ficção Cientifica Isaac Asimov, na sua ficção "I, Robot" (Eu, Robô), de 1950. Neste mesmo livro, Asimov criou leis, que segundo ele, regeriam os robôs no futuro: Leis da robótica.

Leis essas que são:

-1ª:Um robô não pode fazer mal a um ser humano e nem, por omissão,permitir que algum mal lhe aconteça.

-2ª:Um robô deve obedecer às ordens dos seres humanos,exceto quando estas contrariarem a Primeira lei.

-3ª:Um robô deve proteger a sua integridade física, desde que,com isto, não contrarie a Primeira e a Segunda leis.

A ideia de se construir robôs começou a tomar força no início do século XX com a necessidade de aumentar a produtividade e melhorar a qualidade dos produtos. É nesta época que o robô industrial encontrou suas primeiras aplicações, o pai da robótica industrial foi George Devol. Atualmente, devido aos inúmeros recursos que os sistemas de microcomputadores nos oferece, a robótica atravessa uma época de contínuo crescimento que permitirá, em um curto espaço de tempo, o desenvolvimento de robôs inteligentes fazendo assim a ficção do homem antigo se tornar a realidade do homem actual.

A robótica tem possibilitado às empresas redução de custos com o operariado e um significativo aumento na produção. O país que mais tem investido na robotização das atividades industriais é o Japão, um exemplo disso observa-se na Toyota

Porém há um ponto negativo nisso tudo. Ao mesmo tempo que a robótica beneficia as empresas diminuindo gastos e agilizando processos, ele cria o desemprego estrutural, que é aquele que não gerado por crises econômicas, mas pela substituição do trabalho humano por máquinas.

Ressalta-se entrentanto que há alguns ramos da robótica que geram impacto social positivo. Quando um robô é na realidade uma ferramenta para preservar o ser humano, como robôs bombeiros (em português) , submarinos, cirurgiões, entre outros tipos. O robô pode auxiliar a re-integrar algum profissional que teve parte de suas capacidades motoras reduzidas devido a doença ou acidente e, a partir utilização da ferramenta robótica ser reintegrado ao mercado. Além disto, estas ferramentas permitem que seja preservada a vida do operador.

A robótica é usada em várias áreas. Podemos citar por exemplo: Nanotecnologia (para a construção de nanorobôs a fim de realizar operações em seres humanos sem necessidade de anestesias), na produção industrial (os robõs que são criados para produção e desenvolvimento de mercadorias) e em produções avançadas como os "dummys" feitos para transcrição de colisões de carros,os chamados "crash tests".

PLANEJAMENTO ESTRATÉGICO

O mundo dos negócios é uma verdadeira guerra, e, como em todas as guerras, vence aquele que melhor sabe neutralizar a força e o movimento dos adversários (concorrentes), favorecer o movimento de suas forças (seus vendedores), bem utilizar o potencial de suas armas (sua tecnologia), ocupar os espaços estratégicos (de mercado) e minar a frente de batalha (sua área de abrangência) com seus projéteis (seus produtos).

Em muitos casos fica evidente a necessidade de repensar a empresa e levá-la a um outro posicionamento que leve em conta diferentes realidades.

A ação de uma organização, em qualquer nível, ocorre em uma determinada área de abrangência, que pode ser um bairro, uma cidade, um Estado, uma região, ou mesmo um país ou muitos países de um ou de vários continentes. Nessas áreas deve-se levar em conta o ambiente de negócios, que muda constantemente.

Esse ambiente envolve, sofre a influência e interfere em uma grande diversidade de aspectos, como pessoal, clientes, fornecedores, concorrentes, tecnologia, finanças, governo, legislação, meio ambiente, comunidades, etc., cuja interação não pode ser ignorada.

Em tal cenário, com constantes oportunidades e ameaças, pequenas decisões poderão influir em grandes resultados. Mais que isto, tal como na guerra militar, ocupar ou não uma posição hoje poderá influir, de modo positivo ou negativo, no desempenho da organização em futuro próximo ou dentro de cinco, dez, quinze anos. Nesta época de globalização, de mudanças rápidas e de transformações inesperadas, chegar primeiro não é apenas uma estratégia de competição, mas , antes de tudo, uma questão de sobrevivência.

AS NECESSIDADES

É aqui que o empresário tem necessidade da formulação e implantação do planejamento estratégico, com definição de objetivos, políticas e estratégias. Aqui serão fixados, por exemplo, o foco da organização, os objetivos de curto, médio e longo prazos, a política de pessoal, política de preços, política comercial, política de relações com a comunidade, política de investimentos, política de produtos, estratégia de competição, estratégia de crescimento, qual seu verdadeiro produto, qual a essência do negócio, e uma série de meios para atingir os objetivos da organização, como, por exemplo, os planos táticos.

Por exemplo, uma empresa de aviação comercial poderá definir o seu negócio como sendo transporte aéreo de passageiros, ou transporte aéreo de carga, ou de passageiros e carga. Também poderá adotar uma visão estratégica mais abrangente e definir o seu negócio como transporte. Assim ela se situará em um leque mais amplo de oportunidades, que incluirão a conexão avião-caminhão, ou caminhão-navio, ou avião-caminhão-navio, etc. As oportunidades são imensas em qualquer ramo de negócio, mas as organizações precisão estar preparadas.

O GRANDE CONTEÚDO

Segundo Philip Kotler, “o planejamento estratégico é uma metodologia gerencial que permite estabelecer a direção a ser seguiida pela organização, visando maior grau de interação com o ambiente”. Como direção, compreende-se o estabelecimento do âmbito de atuação, as macropolíticas, as políticas funcionais, a filosofia de atuação, a macroestratégia, as estratégias funcionais, os objetivos funcionais e os macroobjetivos.

O grau de interação entre a organização e o ambiente – que pode ser positivo (favorece a organização), negativo (prejudica a organização) ou neutro (não favorece nem prejudica a organização) – é uma variável dependente do posicionamento e do comportamento estratégico assumido pela organização.

A premissa do planejamento estratégico é de que as organizações desejam crescer e se desenvolver – física e economicamente – no sentido de uma evolução positiva e lucrativa para o futuro. O processo de crescimento e desenvolvimento, porém, não é tão simples, visto que a ambiência de mudanças contínuas exige da organização uma capacidade de inovação e adaptação constantes.

A adoção do planejamento estratégico requer uma mudança bastante significativa na filosofia e na prática gerencial da maioria das organizações – públicas ou privadas. O planejamento estratégico não é passível de ser implantado por simples modificações técnicas nos processos e instrumentos decisórios da organização. É, antes de tudo, uma conquista organizacional que se inicia a nível de mudanças conceituais da gerência, resultando em novas formas de comportamento administrativo, além de novas técnicas e práticas de planejamento, controle e avaliação. O processo do planejamento estratégico é, para muitas empresas, o último caminho e a última porta para a sobrevivência.

Estabelece-se, então, o plano estratégico, englobando toda a organização: os planos táticos, que se relacionam com as diversas áreas (marketing, financeiro, produção, recursos humanos, etc.) e os planos operacionais (plano de vendas, plano de investimentos, plano de produção, etc.), que se destinam a operacionalizar os planos táticos.

Com isto a empresa estará sendo dotada de um instrumento e uma visão de vanguarda que lhe permitam melhor se situar em um ambiente extremamente competitivo – muitas vezes agressivo. O posicionamento estratégico da organização poderá ser o grande diferencial e um passo decisivo para a liderança, seja qual for o seu porte, seu ramo de atividades, sua área de abrangência e o ambiente de negócios.

Com o posicionamento e a visão estratégica, a empresa poderá fixar o rumo das suas ações, definir quais os seus projetos e como desenvolve-los. É este o procedimento das organizações vitoriosas. Com um adequado planejamento estratégico, a empresa se posicionará bem melhor e aumentará seus resultados mais que o custo dos serviços que forem contratados. Isso também será uma questão de estratégia.

Jorge Paulo Lemann

Nascido no Rio de Janeiro em 26 de agosto de 1939, é um empresário brasileiro, o segundo homem mais rico do país e 165º em todo o mundo.

É um dos controladores da AmBev, a fabricante de cervejas e refrigerantes resultante da fusão entre Brahma e Antarctica e posteriormente fundida com a belga ,formando a segunda maior cervejaria do mundo. Sua maior concorrente é a SABMiller.

Lemann tem uma fortuna avaliada hoje em 5,8 bilhões de dólares e mora em Zurique com os três filhos mais novos e a segunda mulher.

Assim, Lemann e seus dois inseparáveis companheiros, Marcel Telles e Carlos Alberto Sicupira, montaram um portifólio de participações acionárias em mais de 30 empresas, no qual aparecem nomes consagrados como Lojas Americanas, Telemar, Ambev, Submarino, Cemar, entre outras.

Era acionista da Gillete junto com Warren Buffet. Com a incorporação da Gillete pela Procter & Gamble, recebeu ações dessa nova empresa.

Filho de suíços, Lemann foi tenista na mocidade, tendo representado a Suíça na Copa Davis de 1962. Foi pentacampeão brasileiro de tênis.

MENSURAÇÃO DE RESULTADOS

Em um mundo cada vez mais globalizado, na qual a tecnologia é de forma acelerada existem poucas áreas nas quais a ação de um individuo é suficiente. Reconhece que cada vez mais há necessidade de trabalho em equipe.

Apesar de observarmos uma era onde a importância é “ser” ou seja, as pessoas lutam para se distinguirem como individuo, então que a sociedade, embora complexa utilize-se de pessoas talentosas que façam da informação bem para si e para outrem.

Grandes grupos são organizações comprometidas. Em uma colaboração criativa, participativa, o trabalho é um prazer e as regras, procedimentos são avanço para causa comum.

Fica-nos o desafio de através da mensuração de resultados, implementar estratégias, utilizando sabiamente do elemento humano para que as perspectivas sejam atendidas em todos os âmbitos.

Definição de Mensurar: determinar a medida de medir. O ato de medir, tão presente banal é objeto de nossas reflexões assim desde logo ao pensarmos em medir cogitamos, unicamente os resultados numéricos. Quando precisamos medir a largura de uma sala? Usamos a trena instrumento de mensuração que são estendidos ao longo da dimensão e permitem- nos dizer, por exemplo, que a referida largura vale quatro metros.

Muitas vezes instrumentos ou escala que possam ser aplicadas ao que não sejam numéricos. Assim a mensuração também por meio de teste, escala ou questionário, exemplo: a inteligência humana pode ser medida por questionário teste que produzirão resposta corretas, promover o aprimoramento permanente.

Vários e favoráveis são os aspectos do desafio proposto pela mensuração de resultados, a mensuração de resultados possibilita muito mais do que simplesmente, avaliar criar um ambiente de melhoria, pois permite rever, corrigir as ações e gerar mais conhecimento credibilidade a atividade prioriza, sobretudo profissionais que atuam arduamente na busca de soluções.

Gestão do conhecimento:

O grande desafio empresarial está relacionada à gestão do conhecimento, ao papel da alta administração cultuar e estrutura organizacionais, prática de gestão de recursos humanos, impacto do sistema de informação, mensuração de resultado estratégico, viveu um momento do ambiente econômico na qual a gestão do conhecimento adquire o papel central para a competividade da empresas. Isto, no entanto, nem sempre foi assim, pois no passado vantagens de localização assim como acesso, mão de obra barata, recurso de materiais e o financeiro tinham papeis determinantes.

A gestão do conhecimento vai ao a entanto alem do investimento ou gerenciamento da inovação passa necessariamente, pela compreensão das características do ambiente competitivo das necessidades individuais e coletivas.

Estamos vivendo um momento na qual a empresa tem que se reinventar, desenvolvendo competências ao testarem diferenças idéias de aprenderem com o ambiente e de estarem buscando grandes desafios adotando estilos, estrutura e processo que gerenciam que estimule, geração, difusão armazenamento de conhecimentos pelas organizações.

Com o avanço da tecnologia, utiliza as informações para auxiliar os colaboradores a compartilhar o conhecimento.

Como avaliar o desempenho de funcionário, equipe e empresa? Anteriormente a preocupação estava em obter aumento na produtividade por medidas eficaz da máquina nesta abordagem verificou-se que as organizações conseguiram resolver as questões relacionadas à máquina, mas referente às questões relacionadas ao homem no trabalho nada foi feito, acreditava –se que o homem era parte integrante motivado somente por incentivo financeiro.

Na metade do século XX verificou que deveria ser visto as necessidades dos empregados, enfim passou a ver outro enfoque referente à forma de ver o funcionário de obter resultados, a preocupação passou da máquina para o homem e verificou-se que o aumento da produção estava condicionado a satisfação do funcionário que passou a ser tratado como um integrante da organização, surgiram vários estudos sobre como conhecer e medir o potencial.

Segundo Chiavenato a avaliação ou administração de desempenho e um método que, visa continuamente estabelecer um contato com os funcionários referentes aos resultados desejados pela organização acompanha os desafios proposta corrigido os rumos quando necessário, e resolver os resultados conseguidos.

Avaliar o desempenho do funcionário não esta ligado somente ao estimulo salarial, mas ao desenvolvimento individual organizacional possibilitando através da mensuração dos resultados atualmente existem várias técnicas utilizadas para o desenvolvimento do sistema de avaliação de desempenho, levantar informações referentes ao comportamento do funcionário nas tarefas desenvolvidas, comparando o desempenho atual dos funcionários como desempenho esperado.

O impacto do desempenho humano nos resultados das organizações.

A imprevisibilidade do mundo moderno e as mais freqüentes mudanças nos levam a ver que não se vive mais naquela época de estabilidade em que as mudanças ocorriam lentas, entre decorrente de causa e efeitos que ajustavam através dos tempos de maneira quase imperceptível e é evidente o impacto dessas transformações no desempenho humano e a forma de trabalho que deverá estar apto a promover as mudanças no ambiente organizacional a que rigor esforço permanente readaptação e de assimilação de novos conhecimentos. Portanto, são as pessoas que promovem as mudanças para manter a empresa em ritmo evolutivo. Isto significa que o sucesso da empresa apóia-se fundamentalmente e insubstituivelmente a competência na capacidade inovadora e no desempenho de sua força trabalho o conhecimento é um legado e quando partilhado, distribuído enriquecendo o homem na vida pessoal e profissional.

Em nosso dia a dia estamos sempre medindo desempenho. A avaliação do desempenho configura-se um a atividade complexa que muitas vezes as simples observação da medida não suficiente para saber se o desempenho da empresa foi bom ou não usar a medida de desempenho eficaz.

A mensuração do resultado não é um processo simples, pois envolve muitas variáveis, específicas para cada atividade. E está diretamente relacionada com os eventos realizados pela entidade avaliada. A forma como os eventos ocorrem e seus objetivos, do mesmo modo os eventos que estão sendo programados, é que definem como eles serão mensurados.

Além disso, o tipo de decisão a ser tomada e o grau de confiabilidade que se espera das informações são pontos-chave para se mensurar corretamente. Outro ponto que não se pode descuidar é quanto à base conceitual ou aos critérios de mensuração utilizados. Aí fica mais evidente a necessidade de consultar os usuários da informação, a fim de definir sob que enfoque eles querem saber o resultado. Os ativos serão avaliados a valores de entrada ou de saída, a empresa será mensurada considerando sua continuidade ou sob uma ótica de descontinuidade, a fim de comparar o custo de oportunidade de continuar o empreendimento ou partir para outra alternativa de aplicação dos recursos.

Quanto ao “modelo perfeito de mensuração” não parece correto dizer que ele não existe, mas é muito complicado dizer se há como se chegar a um modelo aplicável a qualquer empreendimento, até mesmo pelo que foi exposto acima. O que temos são conceitos muito válidos de mensuração e uma diversidade de formas para utilizá-los. O sistema de gestão econômica apresenta um conjunto de premissas bastante interessantes e que merecem ser analisadas. Entretanto exigem um sistema contábil muito organizado e perfeitamente integrado, bem como uma visão holística da empresa. É preciso que todo o empreendimento trabalhe dentro de uma mesma visão. O que se pode afirmar é que há muito campo para estudo dentro dessa área e muito a auxiliar na gestão dos negócios, para quem optar pela visão econômica do resultado. Quem souber medir com perfeição sua eficácia estará sempre na frente dos outros, pois saberá antecipar as decisões e chegar a resultados cada vez melhores

MODELOS DE MENSURAÇÃO

Ao tratar de modelos de mensuração não há como fugir das sete etapas descritas por GUERREIRO como básicas, necessárias à caracterização de um modelo de mensuração científico e tecnicamente correto, que são a seguir comentadas:

a) identificar o tipo de decisão a ser tomada: como se pôde ver anteriormente, o tipo de decisão a ser tomada define a informação ser fornecida pela Contabilidade e como serão mensurados os seus elementos componentes. Muitas vezes é preciso adotar critérios de mensuração diferentes a fim de se fornecer alternativas de decisão aos usuários de acordo com cada variável levantada;

b) identificar o sistema relacional empírico: identificar o conjunto de objetos e eventos que serão mensurados. Trata-se de identificar as propriedades empíricas desses objetos e eventos, que os tornam comparáveis com objetos da mesma natureza;

c) identificar a característica de interesse da medição: a característica de interesse da medição é ditada pelo modelo decisório dos usuários. A informação precisa identificar-se com a decisão que subsidiará. Não adianta informar o quanto tem um produto em quilos, se o gestor precisa saber qual seu valor em moeda. Também não adianta informar o valor do produto em moeda nacional se ele precisa comparar com o mercado mundial, pior ainda se for um valor histórico num processo de inflação;

d) identificar a umidade de mensuração: a mensuração será feita em moeda, nacional ou de outro país, considerando centavos ou não, ou será em quilos e seus fracionamentos, ou talvez ainda em metros e seus derivados;

e) definir a base conceitual (critérios de mensuração): uma vez que a Contabilidade usa a mensuração feita basicamente em valores monetários, é fundamental estabelecer a base conceitual dessa mensuração. Os bens da empresa serão mensurados a valores históricos, a valores de reposição, em valores descontados dos fluxos de caixa futuros, etc. As receitas de vendas serão avaliadas todas pelos valores a vista ou considerando as vendas a prazo sem considerar seu valor presente;

f) identificar o sistema relacional numérico: os números relacionados aos objetos ou eventos precisam ter significado; é preciso evidenciar a escala ou unidade de mensuração a ser utilizada;

g) analisar o sistema de mensuração caracterizado à luz do purpose view (informação adequada) e do factual view (confiabilidade, validade, tipo de escala e significado numérico): a mensuração deve ser feita tendo em mente fornecer a informação correta, na hora exata. E por informação correta entende-se aquela que atende às quatro características do factual view, acima relacionadas. Se considerado o item “a” antes apresentado, em conjunto com o item “c”, à luz do item “g”, fica claro que não há como se criar um modelo único de mensuração aplicável para todas as entidades. Muitas vezes é difícil aplicar um mesmo modelo em mais de uma entidade, por mais parecidas que sejam. O que se tem são conjuntos de conceitos reunidos conforme certas abordagens ou certas fundamentações, e que serão utilizados de acordo com a condição e necessidade de cada entidade.

MENSURAÇÃO NO GECON

O GECON vem sendo desenvolvido pela FIPECAFI, uma fundação de apoio institucional ao Departamento de Contabilidade e Atuária da FEA/USP.

Esse sistema, que teve origem com o Prof. Dr. Armando Catelli, da FEA/USP, no final dos anos setenta, é um modelo gerencial de administração por resultados econômicos. O modelo objetiva a eficácia empresarial incorporando um conjunto de conceitos integrados dentro de um enfoque holístico e sistêmico. Compreende os seguintes elementos integrados: um modelo de gestão, um sistema de gestão, um modelo de decisão, um modelo de mensuração e um modelo de informação, apoiados por um sistema de informações para avaliação econômico-financeira. Tem- se visto que, com o passar dos tempos, houve uma evolução muito grande da teoria contábil, inclusive no tocante à mensuração. Entretanto, não tem sido suficiente para atender às necessidades de informações dos usuários, principalmente pelas características cada vez mais diferenciadas que se exige dessas informações.

O processo decisório cresceu em complexidade e passou a exigir a incorporação de conceitos econômicos ao processo de mensuração. Ora, essa afirmação traz clara a necessidade de mensurar um ativo, a título de exemplo, pelo seu potencial futuro e não apenas pelo seu custo. Um ponto fundamental para se administrar por resultados econômicos é que o lucro esteja corretamente mensurado pois, como afirma CATELLI (1997), “o lucro corretamente medido é o melhor indicador da eficácia empresarial”.

Para o GECON, o Modelo de Mensuração identifica, mensura e reporta os resultados das atividades nas respectivas áreas de responsabilidade, segregando os resultados operacionais dos financeiros, apurando as margens de contribuição e reconhecendo que o valor econômico de uma entidade aumenta ou diminui à medida em que o mercado atribui um maior ou menor valor para os ativos que ela possui. Na gestão econômica é reconhecido que o valor da empresa aumenta com a agregação de valor econômico (figura 4), validado pelo mercado, proporcionado pelo processo interno de geração de produtos e serviços nas diversas atividades, através do consumo de recursos.

Ou seja, a riqueza de uma empresa aumenta com a agregação de valor proporcionada por seu processo de transformação de insumos em produtos e serviços de diversos tipos. O sistema admite ainda que o resultado das atividades, e global da empresa, seja formado pelo somatório do resultado de cada transação. É adotada a abordagem sistêmica, em que cada atividade é um sub-sistema do sistema empresa, e o somatório do resultado de cada sub-sistema será igual ao resultado global do sistema. A base conceitual aplicada para a mensuração dos eventos econômicos no sistema GECON reveste-se de fundamental importância, para que espelhe o valor econômico do patrimônio, os resultados das atividades e o resultado global da empresa.

Cada espécie de ativo, de acordo com sua natureza e com a utilidade que proporciona à empresa, está sujeito a um critério próprio de mensuração que expresse o valor econômico em determinada data. Esse valor econômico reflete o potencial de serviços do ativo para a empresa e independe de como o ativo é financiado.

CONJUNTO DE CONCEITOS DE MENSURAÇÃO EMPREGADOS

NO GECON

Como foi dito anteriormente, a base conceitual para a mensuração dos eventos econômicos é de crucial importância, e precisa estar perfeitamente integrada aos objetivos do sistema. Por isso GUERREIRO (1995, p. 95) apresenta o seguinte conjunto de conceitos de mensuração, que são empregados pelo GECON:

Valor de Mercado a Vista

Custos Correntes a Vista

Valor de Mercado

Equivalência de Capitais

Depreciação Econômica

Moeda Constante

Custeio Direto

Margem de Contribuição

Resultados Econômico-Operacionais

Resultados Econômico-Financeiros

Preço de Transferência

Custo de Oportunidade

Reconhecimento de Ganhos pela Valorização dos Ativos

Reconhecimento de Receita pela Produção de Bens e Serviços

Orçamentos (Original, Corrigido, Ajustado)

Realizado (Em Nível de Padrão e Efetivo)

Variações (Inflação, Ajuste de Plano, Volume, Eficiência)

Custos Controláveis X Não Controláveis

Área de Responsabilidade, Centro de Resultado

Custos Fixos Identificáveis

O quadro apresentado por VATAN considera alguns dos conceitos acima, permitindo a sua visualização:

A dimensão operacional é onde estão os aspectos físicos dos eventos: insumos consumidos, produtos ou serviços gerados, qualidade e cumprimento dos prazos. Trata-se do fluxo físico-operacional, em que determinados recursos passam por um processo de transformação dando origem a produtos e serviços. A dimensão econômica é aquela em que os produtos utilizados no processo têm suas quantidades físicas submetidas ao processo de mensuração econômica, o mesmo ocorrendo com os produtos gerados. No GECON, como se trata de valores econômicos, são utilizados, na mensuração, valores de mercado em condições de pagamento a vista. A dimensão financeira trata dos fluxos de pagamentos e recebimentos ocorridos no processo. Os recursos consumidos são pagos e os gerados trazem recebimentos. Se considerados os prazos, usando o conceito econômico clássico de “valor do dinheiro no tempo”, o fluxo produz receitas e despesas financeiras, gerando o resultado econômico-financeiro da atividade.

Finalmente, as premissas utilizadas pelo modelo de mensuração da Gestão Econômica para a obtenção de um conceito de lucro e de patrimônio, segundo critérios econômicos, são elencadas por GUERREIRO(1989, p. 91):

Para completar pode-se ainda utilizar o exemplo de modelo de decisão proposto pelo GECON, que trabalha com o conceito de margem de contribuição. Partindo-se da Receita Operacional desconta-se o Custo Variável Operacional, obtendo-se a Margem Operacional. Daí desconta-se o Resultado Financeiro, pelo confronto entre a Receita e o Custo Financeiro, obtendo-se a Margem Financeira. Desta são descontados os Custos Fixos obtendo-se o Resultado Econômico, abordando-se assim as três dimensões supracitadas.