Hugo Cesar Hoeschl

Atuo como Arbitro

Hugo Cesar Hoeschl

Ex-presidente da Associação Brasileira de Empresas de Processamento de Dados (ABEP). Ex-Presidente do Centro de Informática e Automação de Santa Catarina. Ex-Procurador da Fazenda Nacional. Ex-Promotor de Justiça. Mestre em Filosofia e TGD. Especialista em Informática Jurídica. Doutor em Inteligência Aplicada. Pós-doutor em Governo Eletrônico. Coordenador científico da metodologia nacional de combate à lavagem de dinheiro dos LAB-LD/CNPq.

Me

Competências

Estou sempre buscando o melhor para o exercício das minhas responsabilidades, aumentando tanto a minha bagagem de conhecimento, quanto o meu reconhecimento nos mercados que atuo.

Consultoria Juridica 99%
Advocacia 98%
Conciliação 98%
Arbitragem 97%

Consultoria Jurídica

Com as decisões certas na fase de crises, pessoas podem superar o problema e sair ainda mais fortes.

Advocacia

Celebração, revisão e rescisão de contratos e acordos comerciais, estruturação de negócios, compra e venda, garantias, etc.

Arbitragem

Solução permanente, resgate de relacionamentos comerciais, acordos, aprocimação das partes, sujestões de acordos, pacificação.

0
Cidades Atendidas
0
Publicações
0
Horas Aula
0
Motivos para Agradecer
  • Negado pedido de liberdade de prefeito e vice acusados de desviar R$ 17 milhões

    A Quinta Turma do Superior Tribunal de Justiça (STJ) negou o recurso em habeas corpus de um prefeito e de seu vice, presos preventivamente desde maio de 2017 por suspeita de desvio de mais de R$ 17 milhões de verbas do Fundef destinadas a um pequeno município do Nordeste.

    A defesa alegou, entre outras razões, excesso de prazo na prisão preventiva. Para os recorrentes, não há motivos que justifiquem a segregação, sendo aplicáveis em seu lugar as medidas cautelares previstas no artigo 319 do Código de Processo Penal.

    O relator do caso no STJ, ministro Reynaldo Soares da Fonseca, destacou que, segundo as informações dos autos, a instrução do processo já foi encerrada. Ele frisou que a defesa teve vistas em novembro de 2017 para a apresentação de alegações finais. Aplicável, portanto, a Súmula 52 do STJ.

    Quanto à suposta ausência de fundamentação para a prisão preventiva, o ministro afirmou que o tribunal de origem detalhou a participação dos envolvidos no esquema criminoso mesmo após o afastamento de ambos das funções públicas, reforçando a necessidade da segregação como única medida capaz de interromper as atividades ilícitas.

    Propina milionária

    “A título de exemplo, cabe considerar que, após ser afastado, o então prefeito ofereceu propina de mais de R$ 1 milhão ao vice e também corréu, para que este deixasse a prefeitura em poder do então presidente da Câmara Municipal, seu primo e aliado político, o que lhe permitiria continuar no domínio da prefeitura”, fundamentou Reynaldo Soares da Fonseca.

    A narrativa feita pelo tribunal de origem, segundo o relator, leva à conclusão de que as medidas cautelares alternativas à prisão não seriam suficientes para impedir as ações da organização criminosa.

    “Embora o primeiro fundamento encontre-se superado pelo encerramento da instrução, constata-se que existe gravidade concreta na conduta imputada aos recorrentes que se mostra suficiente para, por si só, sustentar a manutenção da prisão. No caso, a prisão encontrou fundamentos tanto na necessidade de assegurar o bom andamento da instrução criminal, quanto de garantir a ordem pública”, disse o ministro.

    Apesar de rejeitar o recurso, o relator recomendou celeridade no julgamento da ação penal e o reexame da necessidade da manutenção da prisão cautelar.

    O número deste processo não é divulgado em razão de segredo judicial.

    Fonte: STJ
  • Ciberespaço é o melhor produto da revolução das comunicações

    A iniciação nos assuntos centrais do Governo Eletrônico chama a atenção para a prática de ações humanas em um ambiente chamado de “ciberespaço”. Você sabe o que é isso?

    Antes de abordar a questão, é necessário justificar a opção pelo estabelecimento de um conceito, pois, em se tratando de um objeto cercado de virtualidades, tal exercício é positivo. É adequada a firmação contida em Ortega e Gasset, nas “Meditações de Quixote”, no sentido de que “sem o conceito não sabemos bem onde começa e onde termina uma coisa. O conceito nos dá a forma, o sentido das coisas”.

    Mesmo diante de tal justificativa, o estudo em curso não o apresenta. Porém, analisamos aqui elementos provavelmente úteis para tanto.

    Vamos, então, conhecer este “lugar” chamado “Ciberespaço”, e HAMIT vai apresentá-lo:

    “Nossa terra incógnita é chamada de espaço cibernético. O conceito pleno, de fato, a própria palavra, tem menos de uma década. O autor de ficção científica William Gibson descreveu-o pela primeira vez em seu romance de 1985, Neuromancer, como uma alucinação coletiva partilhada por bilhões de pessoas. Ele escreveu sobre um mundo vislumbrante que criou um novo universo de meditação eletrônica sensorial; um mundo isolado onde a informação era percebida como uma manifestação física, não só vista e ouvida, como também sentida.”

    A idéia de um ambiente comunicativo fortemente sensorial nos permite tratar de forma diferente a informação, visualizando-a “não só como palavras e números numa página impressa, mas como gráficos, objetos físicos que podem ser manipulados diretamente, à vontade”, conforme o mesmo autor. .

    Embora a definição da figura, ciberespaço ou espaço cibernético, seja relativamente recente, a sua existência não o é, ou seja, o ciberespaço já existe há muitos anos, e o surgimento das técnicas da telemática - principalmente os computadores e as redes de comunicação - permitiu a constituição do seu território, como aponta a assertiva de HAMIT:

    “Apesar de definido recentemente, o espaço cibernético não é novo. Ele foi reconhecido, pela primeira vez, por pioneiros como Morse, Edison e Marconni. A invenção do computador simplesmente compôs o território disponível assim que a computação começou a ser utilizada para controlar comunicações eletrônicas. Um casamento de iguais, mas espaço cibernético ainda. Ele poderia ser imaginado como um império de comunicação eletrônica envolvendo redes de comunicação e sinais de transmissão, assim como interações entre computadores.”

    Não há dúvida, o ciberespaço é o melhor produto da mais atual das revoluções, a das comunicações, identificada pelo mestre WARAT:

    “Barnett Pearce introduce la metáfora del terremoto para referirse a la revolución en las comunicaciones (y el saber de la modernidad, yo agregaría) Si alguno de ustedes estuvo alguna vez en un terremoto sabrá que produce una gran desorientación. Cuando de pronto aquello que siempreconsideramos estable (la tierra a nuestros pies o la fuerza de la gravedad) deja de serlo, se siente un profundo vértigo y uno ya no sabe en qué puede apoyarse; o bien para decirlo más literalmente, sobre qué puede estar parado’. El terremoto de la revolución ciberespacial”.

    A velocidade das mudanças é tamanha que DUBNER, já em 1996, fazia uma importante advertência, afirmando que “em 1994 quando James Martin (considerado um guru tanto na área de informática como na de negócios) anunciou que, em 1997, todas as empresas estariam interligadas e que a lnternet seria o principal veículo de marketing, parecia uma loucura até para o mais otimista dos visionários. Hoje, apenas dois anos depois, louco é quem não acredita”.

    O fato, realmente, é de difícil refutação e as mudanças estão em curso. Vamos a uma abordagem específica sobre o termo, feita por WARAT, a qual reafirma o perfil revolucionário desse instituto conceitual:

    “La expresión ‘ciberespacio’ pertenece a Gibson, autor de ciencia-ficción, que en uno de sus libros mostraba la aterradora situación de un hombre proyectado en una red gigante de informaciones. Diez años despúes de la aparicion del libro la palabra comienza a ganar espacios en el lenguaje académico para definir ese no-lugar en que virtualidad y realidad se mezclan descubriendo horizontes desconocidos que abrirán, creo, simultáneamente puertas del paraíso y del infierno. La gran revolución de la numerización generalizada, la compresión de datos y redes de información imposibles de controlar. La revolución de las redes de información, que hará desaparecer las pautas básicas con que hoy nos movemos, en relación a los saberes, el tiempo y el espacio. Otras realidades bien distintas a las que el conocimiento de la modernidad nos colocó.”

    Mas é o tão citado e festejado Willian GIBSON quem apresenta uma contextualização verdadeiramente alucinante, que originou todos os comentários sobre suas formulações:

    “No monitor Sony uma guerra do espaço, bidimensional, desaparecida atrás de uma floresta de fetos gerados matematicamente, demonstrando as possibilidades espaciais das espirais logarítimicas; metragem militar azul-frio ardida; animais de laboratório ligados por fios a sistemas de ensaios; elmos alimentando circuitos de controle de incêndio de tanques e aviões de combate. - O ciberespaço. Uma alucinação consensual, vivida diariamente por bilhões de operadores legítimos, em todas as nações, por crianças a quem estão ensinando conceitos matemáticos... Uma representação gráfica de dados abstraídos dos bancos de todos os computadores do sistema humano. Uma complexidade impensável. Linhas de luz alinhadas que abrangem o universo não-espaço da mente; nebulosas e constelações infindáveis de dados. Como luzes de cidade, retrocedendo.”

    GIBSON escreveu essa definição antes dos filmes da série “Matrix”, que, segundo alguns autores, foram inspirados exatamente em sua obra. De fato, após a leitura do trecho citado (bem como da obra na íntegra), compreende-se os motivos pelos quais a formulação de GIBSON causou tanto impacto, chegando a atingir, mais tarde, o universo científico. A definição, na realidade, foi preconizada, anteriormente, por outros autores. Não foi GIBSON seu criador, nem o pretendeu, mas quem lhe deu forma e nome. Seus referenciais determinaram os desdobramentos acadêmicos posteriores, como as considerações de ALEXANDRE:

    “O ciberespaço é algo amplo e bastante complexo, ele cristaliza a rede atual de linhas de comunicação e bancos de dados num pseudocosmos colorido, uma ‘alucinação consensual’ através da qual informações e pessoas circulam como se fossem a mesma coisa. Diga-se, esclarece o jornalista Julian Dibbel que, de fato, dados e homens se equivalem no ciberespaço, um ‘lugar’ onde os cubos, globos e pirâmides de informação são tão ‘reais’ quanto a própria autoprojeção de uma pessoa. O ciberespaço é a pátria e a terra natal da era da informação - o lugar onde os cidadãos do futuro estão destinados a habitar”.

    A abordagem encontra fertilidade nas incursões da ficção científica. Porém, cabe um importante destaque: diversas descobertas importantes da história da ciência moderna, ligadas à evolução tecnológica, foram antecipadas pela literatura da ficção. Tal não ocorreu com o ciberespaço. O homem acreditava, antes de ter elementos materiais para tanto, que poderia voar, ir à lua, descer dentro do mar, e até mesmo dispor de mecanismos artificiais que o auxiliasse em tarefas intelectuais. Mas o homem nunca imaginou que produziria tecnologia, equipamentos e comportamentos capazes de gerarem um “lugar” no qual os limites físicos são diferentes dos conhecidos tradicionalmente, como bem descrito pelo mesmo autor:

    “Imagine descobrir um continente tão vasto que suas dimensões talvez não tenham fim. Imagine um novo mundo com mais recursos que toda a nossa futura ganância poderia esgotar, com mais oportunidades do que os empresário poderiam explorar. Um lugar muito particular que se expande com o crescimento.

    “Imagine um mundo onde os transgressores não deixam pegadas; onde as coisas podem ser furtadas um número infinito de vezes e ainda assim ficarem na posse dos seus donos originais; onde coisas de que você nunca ouviu falar possuam a história dos seus assuntos pessoais; onde a física é aquela do pensamento que transcende o mundo material; e, onde cada um é uma realidade tão verdadeira como as sombras da caverna de Platão.

    “Tal lugar realmente existe, se ‘lugar’ for uma palavra apropriada. Ele é formado por estados de elétrons, microondas, campos magnéticos, pulsos de luz e pensamento próprio - uma onda na rede dos nossos processamentos eletrônicos e sistemas de comunicação. Costumava-se chamá-lo de “Esfera de Dados” até que surgiu, em 1984 o livro Neuromancer, de Willian Gibson, que lhe deu o nome evocativo de ‘Ciberespaço.”

    Note-se bem: tais palavras, como as do próprio autor, entusiasmadas, somente foram proferidas após a constatação de que o fenômeno já existia. Nenhum cérebro humano idealizou, visionariamente, o ciberespaço antes que ele passasse, de fato a ser uma realidade viável.

    Mas como se chega lá? Quais são suas portas de entrada? Como se percebe sua existência?

    Existem, basicamente, duas formas de ingresso no ciberespaço: a internet e a realidade virtual, como afirma HAMIT :



    “Normalmente, percebemos o espaço cibernético através de uma janela ou tela. Agora é possível, usando as técnicas de realidade virtual, ir além desta visão bidimensional para uma manipulação tridimensional direta de informações. Algumas pessoas acham esta idéia engraçada e outras a vêem com medo e apreensão.”

    Analisaremos a internet em outra ocasião. Agora, vamos dedicar algumas linhas para a realidade virtual, começando pelas seguintes questões: O que quer dizer realidade virtual? Como surgiu essa idéia? Para que ela serve?

    A realidade virtual é uma técnica, gerada através de uma série de conceitos, equipamentos e programas, com o fim de formar uma representação de algo que pode ou não existir materialmente, detalhada doutrinariamente da seguinte forma (HAMIT):

    “Realidade virtual é um método que permite às pessoas manipularem informações num computador da mesma maneira que manipulam objetos na natureza. Ele objetiva aprimorar nossa capacidade de lidar com as complexidades de uma sociedade cada vez mais tecnológica. A idéia da realidade virtual é que estas interfaces não devem ser só uma representação, mas também uma substituição, em todos os sentidos usados para a percepção do instrumento: um usuário não deve simplesmente clicar um botão do mouse ou outro controle, mas estender-se e girar uma maçaneta virtual, da mesma maneira que uma maçaneta real é girada. Isso implica não só o uso da visão e possivelmente da audição, mas também do tato, com as sensações relacionadas de resistência à força, movimento, temperatura e peso. Além disso, um usuário deste mundo virtual deve poder pegar e mover objetos que existem nele e deve poder mover outro objeto - o corpo do usuário (ou parte dele) - para qualquer lugar dentro deste espaço cibernético”.

    Seu nome teve origem em elevados ambientes acadêmicos, e o “termo realidade virtual foi criado, de acordo com alguns relatos, no Massachusetts Institute of Technology – MIT (Instituto Massachusetts de Tecnologia), no final da década de 1970, para expressar a idéia da presença humana num espaço gerado por computador ”, mas foi Jaron Lannier, um polêmico executivo do ramo, quem efetivamente popularizou a expressão, e a definiu, ainda, como “muito mais um meio de partilhar imaginação do que experiências físicas”, conforme assertivas do mesmo autor.

    Trata-se, sem dúvida, de uma forma superior de interação entre homem e máquina, cuja concepção derivou diretamente da programação de computadores, como se vê pela afirmação que segue (HAMIT):

    “A idéia de um mundo virtual em vez de um mundo real não é nova. A concepção básica é inerente ao uso de programação orientada ao objeto, ao uso de um botão de mouse para clicar em ícones numa interface gráfica para usuários, ou ao uso de simulações de computador para executar experiências ‘não-destrutivas' de novos equipamentos. A idéia de usar objetos virtuais ou representações gráficas no lugar do mundo real é uma maneira de tornar a interface homem-computador mais acessível ou amigável” .

    De fato, seu desenvolvimento é “anterior à invenção do computador”, e os primeiros passos foram dados no sentido de tentar “envolver o sentido da visão em combinação com os sentidos de movimento e audição”.

    Suas aplicações são variadas, e muito se diz sobre o seu potencial, “desde comparecer a reuniões por procuração - tanto a própria pessoa, quanto a projeção de uma imagem do que ele gostaria de ser - a mergulho em águas profundas, jogos de guerra e viagens dentro do próprio fígado”, como afirmou POURNELLE.

    Após o contato com tais abordagens, é possível o esboço de uma noção mais palpável do que seja o objeto em tela, o ciberespaço. Trata-se de um ambiente gerado eletronicamente, formado pelo homem, as máquinas, a informática e as telecomunicações, onde é possível a prática de atos de vontade, dotado de limites diversos dos tradicionais, norteado e dimensionado fisicamente por comprimentos de onda e freqüências, ao invés de pesos e medidas materiais, e não constituído por átomos, mas por correntes energéticas.

    Referências

    HAMIT, Francis. A realidade virtual e a exploração do espaço cibernético.

    WARAT, Luís Alberto. Por quem cantan las sirenas?

    DUBNER, Alan Gilbert. A era do marketing digital, in “Informática Exame” n° 123, p. 162.

    GIBSON, Willian. Neuromancer.

    ALEXANDRE, Sílvio. O autor e sua obra, in Neuromancer.
  • O mau uso da tecnologia

    Fatos recentes fazem acender a luz de alerta sobre o uso de novas tecnologias para restringir liberdades públicas no Brasil. Há pouco mais de um mês, o whatsapp foi bloqueado. Em dezembro último entrou em vigor a norma da Receita Federal que acessa dados bancários digitais, sem ordem judicial. Até o pedido de impeachment da presidente Dilma foi baseado no uso descontrolado de decretos do Executivo, que foram detectados por tecnologias semânticas.

    O momento brasileiro é delicado, com muitos artefatos tecnológicos sendo utilizados como subterfúgio para supressão de liberdades. No recente caso do whatsapp, foi utilizada a justificativa de que, em um caso isolado, havia a necessidade de monitoramento. E ainda que diante de um suposto desatendimento, todo o serviço foi suspenso para todas as pessoas no País. O Brasil virou alvo de chacota em ambientes internacionais, pois havia outras soluções disponíveis (multas, prisão por desobediência), que não fossem aquela de implantar a censura contra toda a população brasileira em função de uma situação casuística. No final das contas, o bom senso acabou prevalecendo, mas ficou o alerta, pois a cultura nacional da repressão às vezes “sai do armário”.

    Depois de concluir mestrado e doutorado na área de T.I., tornei-me pesquisador do assunto, com mais de 200 publicações internacionais na área de “tecnologia e governo”, inclusive tendo vencido importantes prêmios nacionais, como o Conip (Congresso Nacional de Informática Pública). Ocorre que também já vivenciei na pele o cerceamento de liberdades.

    Em 2005, licenciei-me das atividades como procurador. Entre outras atividades que exerci, fui coordenador científico do projeto de criação dos Laboratórios de Combate à Lavagem de Dinheiro e desenvolvi o software de inteligência que faz cruzamentos de dados bancários e ligações telefônicas. Mas ao constatar que havia inconformidades na utilização das tecnologias que criei (uso político das ferramentas), fiz uma série de representações aos órgãos competentes, sendo convidado para prestar depoimento em uma sessão da Câmara Federal.

    Muita coisa irregular estava acontecendo, desde o assassinato de reputações, uso político de informações, até a utilização de dados para fins de extorsão financeira. Por qual razão, por exemplo, uma empresa privada, dominada por capital internacional, recebe autorização para adquirir equipamentos de interceptação?

    Ao final da sessão, escutei alguém sussurrar: “vai ter troco”. Após o ocorrido, entrou em ação a mais baixa estratégia de guerrilha política: Dossiês Anônimos. Ao usar documentos falsos e montagens, passaram a me perseguir.

    É de se lamentar que a tecnologia da informação esteja deixando de ser instrumento de libertação pra se transformar em aparato de vigilância.
  • Aplicação da Lei de Newcomb Benford em processos eleitorais eletrônicos

    Considerando a necessidade de aprimorar o debate democrático sobre as eleições eletrônicas no Brasil, resolvi escrever este artigo sobre a aplicação da Lei de Newcomb Benford em processos eleitorais eletrônicos, assim, é importante consignar algumas reflexões. Antes, porém, é de se registrar a necessidade do esclarecimento do assunto por todos os meios possíveis. Todas as formas de estudo do tema, que possam trazer algum tipo de contribuição, sempre serão (ou deveriam ser) bem recebidas. Esse é o meu pensamento.

    Decidimos fazer um estudo com a utilização da Lei (Matemática) de Newcomb Benford, por algumas razões:

    >> Ela é relativamente fácil de ser aplicada;

    >> Apresenta resultados conclusivos muito rapidamente;

    >> Ela dá poder às minorias e ao pequeno cidadão, frente às grandes organizações, aos grandes conglomerados e grandes tribos políticas;

    >> Ela é aceita pela justiça de outros países, como meio de prova de fraudes contábeis.

    Nesse sentido, essa Lei está em sintonia com alguns dos mais intensos princípios da sociedade da informação, que são a desmaterialização e a desintermediação das organizações, pois uma única pessoa, com alguns poucos insumos, pode colocá-la em funcionamento, sem a necessidade de grandes equipes ou grandes estruturas e respectivos custos. E essa Lei coloca o cidadão frente a frente com a informação primária, sem intermediários.

    A Lei de Newcomb Benford

    Sob o aspecto técnico, a Lei de Newcomb Benford (LNB), necessário esclarecer, se aplica a qualquer série histórica de números. Veja o lúcido comentário que o usuário Prometheus registrou em nosso hangout:
    Prometheus Compartilhado no Google+ · 1 semana atrás
    O ano foi 1938 e seu nome era Frank Benford. Benford era físico e ficou intrigado com uma observação que ele tinha constatado em seus conjuntos de dados. Ele observou que apesar de seus dados serem aparentemente aleatórios, os primeiros dígitos tinham uma distribuição muito estranha. Por exemplo, se pensarmos na sucessão de potências de 2, o que será que pode-se tirar de comum? 2 4 8 16 32 64 128 256 512 1024… Considere agora apenas o primeiro dígito de cada número: 2 4 8 1 3 6 1 2 5 1…Observe agora quantas vezes apareceu o número 1? E o número 2? E os demais? Pois foi o que Frank Benford fez em seus dados. Ele observou que mesmo em tabelas de números aleatórios, o número 1 sempre aparecia mais que o número 2, o número 2 mais que o número 3 e assim até o dígito 9. Pode-se pensar que é um absurdo, pois na conhecida distribuição de probabilidade uniforme, todo número têm a mesma chance de ser escolhido com a probabilidade 1/(tamanho do intervalo). Mas incrivelmente, mesmo nessa distribuição, retirando-se apenas o primeiro digítio a “Lei Benford” é obedecida.
    Então, Você, leitor ou leitora, é quem decide: Acredita nos seus próprios olhos, ou aceita as imposições de terceiros.

    “Mas a LNB é absoluta?” Claro que não. A leitura do sumário executivo que produzimos (referência em anexo) mostra isso claramente, existem situações nas quais ela não se aplica. Por exemplo, em ítens com concentrações muito próximas de um ponto médio (altura dos seres humanos). Outro exemplo – no caso dos dados eleitorais – está nas seções eleitorais, pois elas têm um número máximo absoluto: 400 (Resolução do TSE nº 14.250/88). Então não é necessário ser sequer um jumento, nem mesmo uma ameba, para saber que esse tipo de universo – seções eleitorais – não pode ser examinado de pronto, pois o primeiro dígito nunca vai ser maior do que 4. É surpreendente, estupefante, que supostos “especialistas” desconheçam um aspecto tão básico e tão primário desse tipo de análise, para, afoitamente, dizer que “não se aplica”, sem antes estudar o assunto. E, por essa razão, o estudo do sumário executivo (work in progress, diga-se de passagem), não aplicou a LNB diretamente no universo das seções eleitorais.

    A escolha foi por identificar outros universos nos quais esses números (seções eleitorais) desaguam, formando outras séries numéricas que se recompõe. O gráfico (A2) mostra a curva derivada dos informes totalizatórios:

    Isso não é só uma coincidência. A ciência forense mostra que quanto mais o olhar é dirigido para o cenário montado pelo suposto fraudador, menores são as chances de encontrar erros. Por isso foram escolhidos dois universos de dados secundários e derivados: os informes totalizatórios e os resultados consolidados dos municípios. Provavelmente isso explique o tom nervoso de certas críticas “chapa-branca”: Geralmente é nesse momento (quando percebem a mudança de foco) que os fraudadores entram em polvorosa.

    Monopólio da crítica

    Nós te perguntamos se Você, que está lendo este texto, identifica, por sua própria conta, algum tipo de característica especial, algum tipo de “foro privilegiado”, de natureza matemática, que nos diga que os números eleitorais são diferentes, ou especiais, em relação às constantes da físicas, à tabela de expansão de gases, às estatísticas esportivas, às tabelas de números aleatórios, e até mesmo à distribuição de probabilidade uniforme e, por alguma razão excepcional, ficariam os dados eleitorais proibidos de serem examinados pela LNB? Historicamente, as “carteiradas” que confrontam a lógica podem até ganhar a discussão – pela força hegemônica ou pela violência simbólica – mas, com o passar da tempo, acabam caindo no ridículo. Assim foi com a ciência do nazismo. Assim foi com os julgadores de Galileu e Copérnico.

    Precisamos, portanto, redobrar a atenção para a tentativa de se criar no Brasil mais um tipo de monopólio exclusivista: O Monopólio da Crítica Eleitoral.

    Diversidade de opiniões

    Sem esquecer o ponto mais importante deste texto: Ciência não combina com verdades absolutas. Você pode não concordar com certas teorias, e isso é benéfico, mas convém respeitar a diversidade de opiniões. No final das contas, com tranquilidade e serenidade, com o passar do tempo, essas coisas se esclarecem. Ninguém ganha uma discussão dessas da noite para o dia, na base da imposição. O fato é que existem muitas, e boas, referências sobre a aplicabilidade da LNB em processos eleitorais, dentre as quais citamos as seguintes:



    >> Francisco Alves Júnior, em sua monografia de especialização:

    Todos esses trabalhos foram escritos antes desse processo eleitoral (2014), o que reforça o seu aspecto de independência e isenção. No cenário internacional, existem várias outras referências, a favor e contra a aplicação da LNB, e escolhemos a referência do Prof. Walter Mebane, da Universidade de Michigan, seguramente o pesquisador internacional que mais estudou esse assunto nos últimos anos, e realizou testes em várias eleições, incluindo Rússia e Irã. Dentre os seus trabalhos, destacam-se os seguintes:

    >> Mebane, Walter R., Jr. 2007. Election Forensics: Statistical Interventions in Election Controversies (pdf); (postscript). Prepared for presentation at the 2007 Annual Meeting of the American Political Science Association, Chicago, Aug 30-Sep 2.

    >> Mebane, Walter R., Jr. 2007. Statistics for Digits (pdf); (postscript). Prepared for presentation at the 2007 Summer Meeting of the Political Methodology Society, Pennsylvania State University, July 18–21.

    >> Mebane, Walter R., Jr. 2007. Election Forensics: Statistics, Recounts and Fraud (pdf); (postscript). Prepared for presentation at the 2007 Annual Meeting of the Midwest Political Science Association, Chicago, IL, April 12–16.

    >> Mebane, Walter R., Jr. 2007. Evaluating Voting Systems To Improve and Verify Accuracy (pdf); (postscript). Prepared for presentation at the 2007 Annual Meeting of the American Association for the Advancement of Science, San Francisco, CA, February 16, 2007, and at the Bay Area Methods Meeting, Berkeley, CA, March 1, 2007.

    >> Mebane, Walter R., Jr., and David L. Dill. 2007. Factors Associated with the Excessive CD-13 Undervote in the 2006 General Election in Sarasota County, Florida (pdf). Draft of January 18, 2007.

    >> Mebane, Walter R., Jr. 2006. Election Forensics: The Second-digit Benford’s Law Test and Recent American Presidential Elections (pdf); (postscript). Prepared for delivery at the Election Fraud Conference, Salt Lake City, Utah, September 29–30, 2006.

    >> Mebane, Walter R., Jr. 2006. Election Forensics: Vote Counts and Benford’s Law (pdf); (postscript). Prepared for delivery at the 2006 Summer Meeting of the Political Methodology Society, UC-Davis, July 20-22.

    Repare bem, Você não é obrigado a concordar com essas referências. Mas não pode exterminá-las, ou apagá-las da história, visando a atender conveniências momentâneas e interesses transitórios. Aqueles que não acreditam, que delas não façam uso. Existem pessoas que não acreditam no teste de DNA, outras que não acreditam que a humanidade pisou na Lua. Mas o respeito à diversidade de opiniões é questão básica no ambiente de pesquisa. Como comer com talheres, é uma questão de educação.

    A respeito do artigo “The Irrelevance of Benford’s Law for Detecting Fraud in Elections“, vale notar que, apesar de sua divulgação ser feita por um projeto da Caltech (juntamente com o MIT), existem autores de outras instituições. O referido paper está classificado na base de dados do Voting Technology Project como “RPEAVT paper”, ou seja, uma publicação que não é de responsabilidade do projeto e nem dos membros do mesmo (“Research papers in this archive represent the research of their authors, and not the Caltech/MIT Voting Technology Project”). O argumento de apelo à autoridade pelo suposto fato do artigo ser de pesquisadores da Caltech não é consistente, mas não implica que a referida pesquisa não tenha valor científico. Na realidade, na época em que os dados das eleições de 2014 estavam sendo avaliados, tal artigo já havia sido analisado, em conjunto com outros insumos. Registre-se a conclusão de número “I” no nosso relatório:

    “I) Não há razão plausível para refutar, ab initio, a aplicação da LNB no processo eleitoral brasileiro de 2014. A Terra não é o centro do universo, como ensinou Copernico, e o sistema eleitoral brasileiro não é infalível ou inquestionável. Nenhum sistema eleitoral está acima de falhas ou questionamentos;”

    Da aplicabilidade da Lei de Newcomb Benford

    A análise das condições objetivas do cenário indicavam (e indicam) a necessidade do exame, em especial considerando o envolvimento de empresas as quais já receberam questionamentos veementes em outros países. Por outro lado, especificamente em relação à empresa Smartmatic, que teve contrato com o TSE para atuação no processo eleitoral, está havendo, nesse momento, uma leva de Ações Populares (judiciais), exatamente em função desses questionamentos e dos detalhes de sua contratação, até agora desconhecidos do grande público.

    Mas uma coisa que chama a atenção, em momentos como este, é o surgimento de “hordas”, com discursos irascíveis, sempre com o mesmo estilo, bradando com veemência sobre punições, acusações, desqualificaçãoes, no mais raivoso espírito “Stasi” e “Gestapo”. Logo após a divulgação do nosso estudo, por exemplo, fomos agraciados com dossiês anônimos e reportagens agressivas, contendo ataques pessoais. Em uma delas, conhecido portal jurídico, o jornalista sequer nos ouviu.

    Mesmo considerando todos esses aspectos, ainda assim é de se destacar a conclusão final do nosso relatório, cautelosa, mas muito clara:

    “A aplicação da LNB no processo eleitoral brasileiro demonstra, em análise preliminar, elevados níveis de inconistência (A1, A2 e A3). As diferenças nas curvas superam os limites frequenciais em quantidade e variedade, o que sugere aplicações mais profundas e auditagens em escala mais ampla. No aspecto técnico, sob o ponto de vista da análise das séries históricas, o resultado eleitoral encontra-se sob a ótica da dúvida.

    A exasperação em negar a mera possibilidade de aplicação da LNB sobre os dados eleitorais só faz aumentar mais e mais a nossa curiosidade:

    >> Quem quer impedir o exame desses números, e por qual razão?

    >> A quem isso interessa?

    >> O que há de errado nesses números?

    >> Por que eles tem que ser examinados somente por metodologias exclusivistas e “abençoadas” pelo oficialismo?

    >> Por qual razão teríamos que aceitar somente um único tipo de questionamento?

    ***

    Sumário executivo:

    Hangouts explicativos sobre o trabalho:



    Referências sobre a criação de sistemas de inteligência




    >> O Estado de S.Paulo: “Brasileiros são destaque em conferência de inteligência artificial”


    >> Revista ComCiência: “Sistema aplica inteligência artificial ao controle de fronteiras”




    >> “Tecnologia permite o monitoramento inteligente de conversas”


    >> O Estado de S.Paulo: “Pesquisas brasileiras são destaque internacional”




    >> Professional practice in artificial intelligence – 19th World Computer Congress – Toulouse (Google Books):


    >> O Estado de S.Paulo: “Sistema brasileiro de inteligência artificial será apresentado na França”

  • É mais útil monitorar ligações do que bloquear celular


    No meio de toda a polêmica sobre os ataques e rebeliões do PCC, espalhados pelo Brasil e concentrados em São Paulo, a TIC — tecnologia da informação e comunicação jogou como adversária da sociedade organizada e ajudou os criminosos a organizarem suas ações. Agora, surge uma unanimidade nacional: os celulares devem ser bloqueados em presídios. É uma unanimidade burra.

    Geralmente, decisões tomadas apressadamente em cenários confusos tendem, por óbvio, a serem confusas. A melhor solução é utilizar os diálogos como instrumento de coleta de informações, monitorando a atuação das quadrilhas e destruindo as conexões que os grupos criminosos mantêm ativas fora dos presídios.

    Como fazer isso? Utilizando a mesma TIC. E não é difícil. Existem várias tecnologias que permitem o monitoramento simultâneo de milhares e milhares de chamadas telefônicas em curtos períodos de tempo, com possibilidade de mapeamento de redes sociais por meio da detecção de padrões comportamentais e monitoramento de fluxos de comunicações e diálogos com o uso de ontologias dinâmicas.

    Um exemplo de tecnologia desse tipo é a chamada Rede de Relacionamentos/Nexus. Ela permite, por exemplo, a visualização simultânea de mais de 10 mil chamadas telefônicas, identificando quem liga para quem, com que freqüência, com que tempo médio de duração e quais as seqüências de ligações que ocorrem entre o grupo monitorado.

    Mais do que isso, ela identifica se existem conexões entre grupos monitorados em momentos e locais diferentes e como elas ocorrem. Tudo isso é muito rápido, acontece em tempo real. As gravações podem ser ouvidas de modo dinâmico, como se fossem arquivos dentro de um diretório, com avaliação dos conteúdos textuais, gerando alarmes específicos para ligações que contenham textos ou palavras determinados.

    Para melhorar, esse tipo de tecnologia faz cruzamentos entre ligações telefônicas e movimentações bancárias. É comum transações bancárias suspeitas serem precedidas ou sucedidas por ligações telefônicas, com estabelecimento de padrões comportamentais.

    Para se ter uma idéia mais detalhada da capacidade de processamento dessas tecnologias, uma planilha com, por exemplo, 65 mil linhas de dados leva, entre configuração, operação de carga e processamento, aproximadamente 10 minutos para ser analisada.

    Nesse tipo de atuação, as forças de segurança e investigação ficam menos expostas aos meliantes. Todos os problemas técnicos e operacionais ligados aos bloqueios migram para o segundo plano e passamos a ter a TIC como aliada, invertendo a situação e utilizando a inteligência como ferramenta estratégica na construção de uma sociedade mais justa e perfeita.

    Assim, ao invés de retroceder e tentar, mais uma vez, mudar leis em “regime de urgência” e “proibir” mais alguma coisa, é mais importante trabalhar a construção de novos cenários. Pelos valores que estão sendo apresentados, o custo total de implantação dos bloqueadores, em escala nacional e atingindo todas as bandas e faixas, vai superar a casa de bilhão. Por incrível que pareça, os sistemas de monitoramento, por serem mais otimizados e atuarem em escala, custam menos.

    Outro aspecto importante: os monitoramentos não podem ser “puxados da tomada”, pois suas centrais ficam em lugares sigilosos e protegidos, com atuação sobre os fluxos de comunicações, remotamente. Em resumo, monitorar é mais seguro, eficiente e barato do que bloquear, além de ser mais inteligente.
  • Tecnologia permite monitoração inteligente de conversas

    Os recentes ataques do PCC e o ataque ao Congresso Nacional mostram a necessidade da ampliação do trabalho informacional estatal, apoiado por tecnologias inovadoras. Em ambos os casos, era possível saber muito mais sobre os incidentes, antecipadamente, para que tivessem desfechos completamente diferentes daqueles que ocorreram. A boa informação adequadamente coletada, bem armazenada, devidamente analisada e corretamente difundida praticamente elimina o uso desnecessário da força e da violência e permite uma eficiente tomada de decisão.

    Mas como extrair informações efetivamente relevantes de dentro de enormes massas de dados e textos e de monstruosos fluxos de comunicações? A resposta vem da Alemanha. Ou do Brasil, embora identificada pelos alemães. A editora Springer, de Berlim, uma das mais conceituadas do mundo no cenário da tecnologia da informação, acaba de selecionar uma tecnologia brasileira para a sua publicação Lecture Notes in Computer Science. A tecnologia brasileira foi classificada pelos germânicos como Intelligent Information Extraction from Texts, ou Extração Inteligente de Informações Textuais, e trata exatamente desse assunto.

    O modelo brasileiro, entre outras coisas, contém uma estrutura de representação do conhecimento baseada em ontologias. Isso faz com que o sistema jamais confunda lavagem de dinheiro com cédulas na máquina de lavar, por exemplo, e atribua a cada uma das expressões um valor diferenciado e contextualizado.

    Desenvolvido originariamente para o Ontoweb (daí o nome), esse modelo tem uma derivação específica para a área de segurança pública, chamada de IDSeg — Inteligência Digital para Segurança Pública. A finalidade da tecnologia IDSeg é consolidar grandes massas de informações e cruzá-las com ocorrências policiais, dados de administração carcerária, relatórios de inteligência, dados de veículos e armas, transações financeiras e comunicações monitoradas, para, com técnicas de inteligência artificial e redes de relacionamento, detectar e identificar focos criminosos.

    No âmbito da segurança pública e das atividades de inteligência, a construção de estruturas ontológicas permite um monitoramento muito mais eficiente e preciso dos fatos sob análise. Assim, quando surge a pergunta "como um sistema pode monitorar 10 mil elos comunicacionais ao mesmo tempo, conseguindo identificar o que é relevante?", automaticamente surge a resposta: com o uso de ontologias e extração inteligente de informação textual. Segundo os alemães.
  • Consultoria Jurídica

    Com as decisões certas você pode superar problemas e sair ainda mais forte.

    Endereço

    Avenida beira mar, 251
    Florianópolis/SC

    EMAIL

    hugo@hugocesarhoeschl.com
    hugo@hugocesarhoeschl.com

    TELEFONES

    +55 48 98834 0682
    +55 48 98834 0682