<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=utf-8">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
    <div class="moz-forward-container">
      <meta http-equiv="content-type" content="text/html; charset=utf-8">
      Dear <b>C</b>olleagues:<br>
      <br>
      Happy New Year!<br>
      <br>
      BMI is pleased to announce the first Artificial Intelligence
      Machine Learning (AIML) Contest in the BMI summer 2016 program. 
      See below.<br>
      <br>
      <a moz-do-not-send="true"
        href="http://www.brain-mind-institute.org/program-summer-2016.html"><b>The

          First Artificial Intelligence Machine Learning (AIML) Contest</b></a><b><br>
      </b><a moz-do-not-send="true"
        href="http://www.brain-mind-institute.org/program-summer-2016.html"><b>BMI

          Summer School</b><b> and the International Conference on
          Brain-Mind 2016</b></a><br>
      <meta http-equiv="content-type" content="text/html; charset=utf-8">
      <p><strong>Important dates</strong>: <br>
        Monday March 14, 2016: recommendation of learning engines<br>
        Monday April 11, 2016: deadline for advance registration of
        contest entries<br>
        Monday April 11, 2016: deadline for application of BMI
        course-program admission<br>
        Monday April 25, 2016: deadline for late registration of contest
        entries <br>
        Monday April 25, 2016: deadline for BMI course registration <br>
        May 30 - June 17, 2016: distance learning course for the first
        three weeks <br>
        June 20 - July 8, 2016: distance learning course for the second
        three weeks<br>
        July 11 - July 29, 2016: distance learning course for the third
        three weeks <br>
        Aug. 1 - Aug. 14, 2016: workshops (free for all registered
        players, distance or on site) <br>
        Monday, August 15, 2016: Performance run by contest entries due
        by noon<br>
        August 20-21, 2016: ICDL 2016: Contest announcements, sponsor
        awards, and contest presentations (on site and webcast)</p>
      <p align="center"><strong>The 1st AIML Contest</strong> </p>
      <p>The terms such as artificial intelligence, machine learning,
        robotics, signal processing, control, dynamic systems, data
        mining, big data, and brain projects, often had different
        emphases but the related disciplines are converging.  The
        Artificial Intelligence Machine Learning (AIML) Contest serves
        as a converging platform for all related disciplines and
        beyond.  It is open to, but not limited to, all researchers,
        practitioners, students and investors.   The main goal of the
        Contest is to promote understanding of natural and artificial
        intelligence, beyond the currently popular pattern
        classification.   The Contest aims to address major learning
        mechanisms in natural and artificial intelligence, including
        perception, cognition, behavior and motivation that occur in
        cluttered real-world environments.  Attention, segmentation,
        emergence of spatiotemporal representations, and incremental
        scaffolding are part of each life-long learning stream.  </p>
      <p>The major characteristics of this contest include:<br>
        (1) Use inspirations from learning by natural brains, such as
        grounding, emerging, natural inputs, incremental learning,
        real-time and online, attention, motivation, and abstraction
        from raw sensorimotor data. <br>
        (2) General purpose learning engines.   Learning engines will be
        available to participants and open for additional learning
        engines.  The providers of learning engines are free to provide
        assistants to participants, such as courses, tutorials, and
        workshops. <br>
        (3) Training-and-testing sensorimotor streams will be provided
        to the participants.  Each frame of the stream contains a
        sensory vector and a motoric vector.  Training and testing are
        mixed in the streams, so that learning systems can perform
        scaffolding: early learned simpler skills are automatically
        selected and used for learning later more complex skills.<br>
        (4) Major AI challenges will be tested, including vision,
        audition, language understanding, and autonomous thinking. <br>
        (5) The Contest is open to investors, charities, governments and
        industrial supporters who like to contribute award funds and
        provide assistance to their learning engines. </p>
      <p>Rules:  The entry of each contest is uniquely identified by the
        name of the entry system.   A system is developed by a team
        consisting of one or multiple team members.  A person can
        participate in one or multiple teams.  Although the format of
        supplied streams is meant for incremental learning, at this
        first year of the contest we allow teams to use either framewise
        incremental or block-incremental learning, but the size of block
        must be reported for contest.  During block-incremental
        learning, the system takes a block of b consecutive frames at a
        time, update the system, and then discard the block.  Framewise
        incremental learning has a block size b=1 frame.  Each system
        can also run each training stream a few times as practice
        (epochs).  The number of epochs is also reported for the
        Contest.  Entries are submitted via Internet and no travel is a
        must.   The Contest will provide software interface for
        training-and-testing.   Organizers of the contest are ineligible
        for team members of any entry. </p>
      <p>The International Conference on Brain-Mind (ICBM) 2016 will
        feature Contest score announcement, sponsor rewards, and team
        presentations. <br>
        <br>
        Criteria of performance in the following priority of importance
        (1 is the highest):  <br>
        (1) average error rates over all test points during epoch e, e =
        1, 2, ...<br>
        (2) the block size is as small as possible to reach a
        state-of-art error rate.<br>
        (3) the number of practice is as small as possible to reach a
        state-of-art error rate. <br>
        (4) the size of the network is as small as possible to reach a
        state-of-art error rate.<br>
        <br>
        Within each stream, the following five types of substreams (each
        contains multiple tasks and subtasks, skills and subskills) will
        be trained and tested on but each team is not told which type a
        substream is.  It is a violation of the contest rules to
        manually browse through the stream to find out what type a
        stream is.  The Contest software will record all the training
        and testing data. <br>
        <br>
        Type 1: Spatially non-attentive and non-temporal streams: many
        components of a sensory frame are related to the next motoric
        frame (e.g., the object of interest almost fills the entire
        image and the next motoric frame contains the object type). 
        Non-temporal here means that a single frame is sufficient to
        decide the next motor frame.   This is similar to monolithic
        pattern classification (e.g., image classification). But past
        experience is useful for later learning within the same
        training-and-testing stream. <br>
        <br>
        Type 2: Spatially attentive and non-temporal streams: a
        relatively small number of components of a sensory frame are
        related to the next motoric frames (e.g., the car to be
        recognized and detected is in a large cluttered street scene
        where the next motoric frames should contain the location, type,
        and scale of the attended car).  Type 2 is a spatial
        generalization of Type 1.  This is like object recognition and
        detection from cluttered dynamic scenes conducted concurrently
        (where the next motoric frames provide desired actions).   Each
        sensory frame is not segmented but internal automatic
        segmentation needs to be learned.  Namely, skills to find which
        image patch is related to the action in the motoric frame need
        to be gradually learned from earlier learning and refined in
        later learning within the same stream.   The early attention
        skills can be learned from motor vector (supervised learning)
        and/or through reinforcement learning (pain and sweet signals in
        sensory frames).  The motoric frames may contain
        action-supervision signals and the sensory frames may contain
        components for reinforcement signals (rewards or punishment
        components like pain receptors and sweet receptors).   The
        contents in each sensorimotor frame signal what learning modes
        are needed.   For example, a supplied action in a motoric vector
        calls for supervised learning, a supplied pain signal in a
        sensory vector calls for reinforcement learning, and the
        presence of both calls for a combination of supervised learning
        and reinforcement learning. <br>
        <br>
        Type 3: Spatially non-attentive and temporal steams: each
        motoric frame is a function of not only the last sensory frame
        but also an unknown number of earlier sensory frames. <br>
        Each motoric frame corresponds to the temporal state/action. 
        Type 3 is a temporal generalization of Type 1.  This is like
        recognizing sentences from a TV screen where the TV screen
        presents one letter at a time.  Again, past experience is useful
        for later learning (e.g., learning individual letters and
        punctuations, individual words, individual phrases, individual
        sentences, etc. progressively, through a single long stream).<br>
        <br>
        Type 4: Spatially attentive and temporal steams: each motoric
        frame is related to parts of recent sensory frames.  Type 4 is
        the temporal generalization of Types 2 and the spatial
        generalization of Type 3.  An example is recognizing and
        detecting the intent of a car moving in a cluttered scene.  
        Again, earlier experience is useful for later learning (e.g.,
        motion direction, motion patterns, object type, object location,
        object orientation, etc.).<br>
        <br>
        Type 5: Generalization that requires certain amount of
        autonomous thinking: the actions in the motoric frame require
        the system to invent rules and use such rules on the fly within
        the same (long) training-and-testing stream. Type 5 is the
        thinking generalization of Type 4.  Classical conditioning,
        instrumental conditioning, autonomous reasoning, and autonomous
        planning are examples. <br>
        <br>
        Practice streams for training-and-testing will be provided by
        the Contest early on.   For the Contest, each entry is required
        to run through a Contest Interface, which records the
        performance in real time.  The frame rate is around 10Hz in real
        time, but each entry can run slower in virtual time.  GPU is
        recommended but not required.   The information about the
        computer architecture should be provided.   Spatial and temporal
        computational complexities are considered in Criteria (3) and
        (4). <br>
        <br>
        Open-Source Machine Learning Engines available: <br>
        (1) Google TensorFlow <br>
        (2) MSU Developmental Network (DN) <br>
        (3) Submission or recommendation of learning engines for
        contest: open till Monday March 14, 2016<br>
        Each supplier or recommender of an engine is free to decide
        courses and workshops below, but such assistance is recommended
        but not required. <br>
        <br>
        Entries for contest: <br>
        Advance registration deadline: Monday April 11, 2016.<br>
        Registration: $270 per entry.   Scores are measured based on
        entries.<br>
        Each team can register for multiple entries; a team can register
        for multiple human participants; each participant can register
        for multiple teams.  <br>
        The first name of each entry is waived of the $90 registration
        fee for three courses/tutorials. <br>
        Full-time student players: waived of tuition for
        courses/tutorials other than the $90 registration fee.  <br>
        Every player to be officially recognized needs to register in
        the Contest Registration Form. <br>
        Course registration deadline: Monday April 25, 2016.<br>
        <br>
        Contest subject areas:  Each entry chooses at least one of the
        following four subjects: <br>
        (1) vision, <br>
        (2) audition (including speech and music recognition), <br>
        (3) natural language understanding, <br>
        (4) creative machine thinking for one of the above three areas
        or more. <br>
        Each entry can use one or more of the machine learning engines
        provided by the Contest or elsewhere. <br>
        Each entry can address one or more challenge areas. <br>
        <br>
        Each supplier of the Machine Learning Engines is encouraged to
        provide courses or tutorials, via BMI or independently. <br>
        BMI Courses or Tutorials for Machine Learning Contest engines:<br>
        Application for BMI Admission: deadline: Monday April 11, 2016.<br>
        Full time students: waive of tuition for courses<br>
        Course registration deadline: Monday April 25, 2016.<br>
        May 30 - June 17, 2016 (distance learning course for three
        weeks, including <a moz-do-not-send="true"
          href="http://www.brain-mind-institute.org/bmi-831.html">BMI
          831</a>) <br>
        June 20 - July 8, 2016 (distance learning course for three
        weeks, including <a moz-do-not-send="true"
          href="http://www.brain-mind-institute.org/bmi-861.html">BMI
          861</a>) <br>
        July 11 - July 29, 2016 (distance learning course for three
        weeks, including <a moz-do-not-send="true"
          href="http://www.brain-mind-institute.org/bmi-871.html">BMI
          871</a>) <br>
        Aug. 1 - Aug. 14, 2016 workshops (free for all registered
        players).  <br>
        <br>
        Contest entries due: noon, Monday, August 15, 2016. <br>
        5-day evaluation. <br>
        Contest award meeting and Contest presentations (ICDL 2016):
        August 20-21, 2016. <br>
        <br>
        Award amount: $50,000, to be updated with sponsors.  </p>
      <p>Data:  The training-and-testing streams will be provided.  Many
        machine learning techniques are for off-line, batch training,
        batch testing, and task specific.  They must be modified to take
        the official training-and-testing streams for online training
        and testing.  Each stream consists of a single sequence of many
        time frames; each time frame i contains a sensory frame X[i] and
        a motoric frame Z[i].   Each motoric frame many include both
        training data points and testing data points.   If a motoric
        frame that is  marked * (free), it is a testing frame, absent of
        training data.   Namely, each stream is a synchronized
        sensorimotor sequenced (X[i], Z[i]), i = 0, 1, 2, … n, where
        X[i] and Z[i] are the sensory vector (e.g., image) and action
        vector (state) at time i, both non-symbolic (numeric vector) to
        promote fully automatic machine learning. Z[i] includes binary
        components that represent abstract concepts of a spatiotemporal
        event (e.g., location concept, type concept, state concept of a
        sentence).  X[i] may include specified components as punishments
        and rewards for action Z[i-1] or a few frames earlier (not too
        much delay that confuses with earlier actions).  There are two
        types of Z[i]’s, supervised and free, respectively.  Namely,
        free Z[i]’s are motor vectors for test.  Each Z[i] consists of a
        number of concept zones [e.g., Z=(ZT, ZL,ZS), where ZT, ZL, ZS
        represent type zone, location zone, and scale zone, respectively
        for the attended object].  With each zone, only one neuron can
        fire at 1 and all other neurons do not fire and take value 0.
        Within each stream, past learned skills with early i’s is useful
        for later learning with later i’s. </p>
      <p>Contest: each entry runs a contest software provided by the BMI
        for training-and-testing.  The performance is recorded and
        reported by the contest software automatically. </p>
      <p align="center"><strong>BMI Summer School and ICBM 2006</strong> </p>
      <p>2006 is the 5th year of BMI summer school. It is also the first
        time that the summer school is jointly run with the AIML Contest
        as past of the educational support of the Contest. </p>
      <br>
    </div>
    <br>
  </body>
</html>